跳转到内容

Vibe Sparking

171 posts by Vibe Sparking

Claude Code 母公司 Anthropic 完成100亿美元融资分析

Anthropic 是一家在人工智能领域异军突起的公司,其核心愿景是建立可信、可解释、可控制的 AI 系统,并以此引领一场“以安全为核心的竞赛”。与许多同行不同,Anthropic 的历史并非仅始于技术突破,而是源于一场深刻的哲学与治理分歧。自诞生之日起,它就将 AI 安全和伦理作为根本使命,并将其融入公司的法律架构、技术方法论与商业战略之中。

第一部分:安全为先的使命起源

Section titled “第一部分:安全为先的使命起源”

源于分歧的诞生:OpenAI 的哲学裂痕

Section titled “源于分歧的诞生:OpenAI 的哲学裂痕”

Anthropic 由一群前 OpenAI 员工于 2021 年创立,核心人物是兄妹二人——曾任 OpenAI 研究副总裁的 Dario Amodei 和曾任安全与政策副总裁的 Daniela Amodei。他们在 2020 年底与五名同事一同离开 OpenAI,原因在于对公司发展方向存在根本分歧。

Dario 等人对 OpenAI 在 2019 年从非营利组织转型为“利润上限”公司,以及随后与微软建立深度伙伴关系表示担忧。他们认为,这种转变使使命从“确保 AI 造福全人类”转向商业化与利润追求,将 AI 安全与伦理置于次要位置。Dario 曾表示,他们“能够预见人工智能即将呈指数级发展”,AI 公司亟需“制定一套价值观来约束这些强大的程序”。Anthropic 的成立,是对“为商业牺牲安全性”趋势的直接反制。

公益公司:将使命写入公司章程

Section titled “公益公司:将使命写入公司章程”

Anthropic 是特拉华州公益公司(Public Benefit Corporation, PBC)。这种法律结构要求在平衡股东利益的同时,将公益目标作为优先考量。对 Anthropic 而言,这一目标是开发“可靠、可解释和可控制的 AI 系统”。

为确保安全使命不受商业压力侵蚀,Anthropic 设立了“长期利益信托”(Long-Term Benefit Trust),该信托持有 T 类股票并可选举董事会大多数席位。此治理设计意在从法律层面将安全使命与股东财务利益适度隔离,回应传统公司治理在应对 AGI 潜在灾难性风险方面的局限。

以上举措从创始团队的离职到公司结构设计,构成了 Anthropic 的核心叙事:AI 的快速进步需要一种以使命为导向的治理范式。这既树立了“负责任”的品牌形象,也为担忧 AGI 商业化风险的人提供了可信选择。

Anthropic 的独特性不仅在治理结构,更在其技术方法论。其核心对齐路线旨在正面解决 AI 伦理对齐这一根本难题。

宪法式 AI(Constitutional AI):价值观的编码

Section titled “宪法式 AI(Constitutional AI):价值观的编码”

宪法式 AI(CAI)的目标是训练 AI 成为“有帮助、诚实且无害”。其核心是在训练中引入一份由人类撰写的“宪法”——一组原则,指导模型自我评估与修改输出。与传统在敏感问题上“回避/模糊”的处理不同,CAI 让模型在遵循原则的前提下更直接地回应请求,并在拒绝时说明理由。

训练过程分两阶段:监督学习阶段中,模型依据宪法原则批评并修正自身不当回答,生成更“无害”的数据集进行微调。

基于 AI 反馈的强化学习(RLAIF):对齐的自动化引擎

Section titled “基于 AI 反馈的强化学习(RLAIF):对齐的自动化引擎”

第二阶段为强化学习。Anthropic 采用 RLAIF(Reinforcement Learning from AI Feedback):模型生成两段回答,再按随机选定的宪法原则评估并选优;这些评估数据训练偏好模型,从而让最终策略更符合宪法原则。

相较常见的 RLHF,Anthropic 认为 RLAIF 更高效、更可扩展(减少人工标注依赖),且通过以自然语言编码目标提升可解释性与透明度,同时在一定程度上降低人类主观偏见的影响。批评者指出,宪法本身仍由人类撰写,难免主观性;同时减少人工干预也带来问责与监督的讨论。这种“自动化”与“人工控制”的张力,是理解 Anthropic 方法论的关键。

从研究到前沿模型:持续创新的时间线

Section titled “从研究到前沿模型:持续创新的时间线”

自 2023 年 3 月发布 Claude 1 以来,Anthropic 保持 4–8 个月一版的高速迭代:Claude 2(2023 年 7 月)、Claude 3 系列(2024 年 3 月)等,体现其既是研究机构,也是“前沿模型竞赛”的产品公司。

每代新模型在上下文、推理与多模态上持续跃迁:从 Claude 2 的 100K token 上下文,到 Claude 3 的 200K,再到 Claude 4 扩展推理模式接近 100 万 token。Claude 3 起支持图像与文本,多模态理解、编程、数学与逻辑推理能力显著增强。

自 Claude 3 系列起采用三档梯级架构:

  • Haiku:最快,面向实时与低延迟场景。
  • Sonnet:性能/速度平衡,覆盖通用任务。
  • Opus:旗舰级,面向复杂任务与高级推理。

2024 年 6 月的 Claude 3.5 Sonnet 在多项基准上超越更大的 Claude 3 Opus,显示出激进优化与产品化能力。

  • Artifacts:随 Claude 3.5 Sonnet 推出,可在专门窗口实时生成与预览代码、SVG、网站等。
  • Computer Use:在 3.5 Sonnet 测试版首发,AI 可操控虚拟电脑界面,模拟光标、点击、输入等跨应用多步骤任务。
  • Hybrid Dual-Mode Reasoning:在 Claude 3.7 与 Claude 4 中引入,可在快速响应与“扩展思考”之间动态切换,必要时调用工具(检索、执行代码)解决复杂问题。

这些能力推动 AI 从对话助理走向自主代理,也让 AGI 相关的现实风险更为迫近。

表 1:Claude AI 系列发布时间线与核心能力

Section titled “表 1:Claude AI 系列发布时间线与核心能力”
模型名称发布日期关键能力/特点
Claude 12023年3月初次发布,AI 助理原型
Claude 22023年7月行业领先的 100K token 上下文窗口
Claude 3 系列(Haiku, Sonnet, Opus)2024年3月梯级架构,文本+图像,多项基准表现卓越
Claude 3.5 Sonnet2024年6月编码与图表分析显著提升,推出 “Artifacts”
Claude 3.7 Sonnet2025年2月混合推理,支持快/深切换
Claude 4 系列(Sonnet 4, Opus 4)2025年5月100 万 token 上下文,改进 “Computer Use” 与 “Working Notes”

第四部分:安全 AI 的商业实践:成长、资本与伙伴关系

Section titled “第四部分:安全 AI 的商业实践:成长、资本与伙伴关系”

Anthropic 估值在 2024 年末超 610 亿美元,2025 年中 Series F 后达约 1830 亿美元。本轮由 ICONIQ 领投的 130 亿美元融资,强化其在企业、开发者与高端用户市场的领先地位。

营收同样快速:年化收入从 2025 年初约 10 亿美元增至同年 8 月超 50 亿美元。Claude Code 在三个月内实现超 5 亿美元年化收入,显示技术已有效转化为竞争力。

Anthropic 与亚马逊、谷歌建立深度合作:将 AWS 作为主要云供应商,并在 Amazon Bedrock 上提供模型;谷歌亦承诺数十亿美元投资与云基础设施支持。双方提供的 Trainium 与 TPU 等算力,使 Anthropic 能进行大规模前沿训练。

2025 年,CEO Dario Amodei 的内部备忘录被泄露,坦言公司为维持竞争力考虑向中东主权资本寻求投资,并承认其中“道德风险”。他写道:“我真的希望我们不必陷入这种境地,但我们身在其中。”以及“‘任何坏人都不应从我们的成功中受益’是一个很难经营企业的原则。”

这揭示了 Anthropic 的核心矛盾:在资本密集的竞赛中,即便具公益属性的治理结构,也难完全免于“竞相触底”的现实压力。

表 2:Anthropic 的主要融资轮次与估值

Section titled “表 2:Anthropic 的主要融资轮次与估值”
日期投资方投资金额估值
2022年4月FTX5.8 亿美元未公开
2023年9月/10月亚马逊、谷歌亚马逊承诺 40 亿美元(首轮 12.5 亿),谷歌承诺 20 亿美元(首轮 5 亿)超过 610 亿美元
2024年3月亚马逊27.5 亿美元(完成承诺的 40 亿)未公开
2024年11月亚马逊40 亿美元(总投资达 80 亿)未公开
2025年5月ICONIQ、Fidelity、Lightspeed 等130 亿美元1830 亿美元

第五部分:未来展望:AGI 与社会影响

Section titled “第五部分:未来展望:AGI 与社会影响”

Dario Amodei 对 AGI 的时间表极为激进,曾预测“奇点”可能在 2026 年到来。这种紧迫感解释了 Anthropic 对资本的巨大需求以及在竞争中的艰难权衡。

除以 CAI 设定技术基线外,Anthropic 也积极参与美国 AI 政策讨论。与 Palantir 的合作使 Claude 3/3.5 首次用于“机密环境”,既验证了能力与安全性,也触及其最具争议的应用场景之一。

Claude Code 等产品使软件工程的现代化与自动化成为现实,亦将推动医疗、教育、金融等行业变革。挑战仍在:如何让系统在复杂情境中稳健地理解并应用伦理原则,如何建立监管与问责框架、重塑公众信任。

Anthropic 以使命分歧为起点,通过公益公司与信托治理将安全嵌入企业 DNA;其快速迭代与商业增长表明,“安全承诺”可成为强有力的市场差异化。然而,泄露备忘录揭示了资本与理想之间的持续张力。

开发强大 AI 与确保其安全并非两条平行线,而是一枚硬币的两面。随着 Anthropic 沿这条复杂道路前行,它不仅将影响 AI 的技术版图,也迫使我们思考:在一个由 AI 驱动的世界里,我们愿为力量牺牲多少原则。

Claude Code vs Codex CLI 谁更适合你的日常开发?

Claude Code 更成熟,工程化能力强(子代理、Slash 命令、Hooks);Codex(GPT-5 High) 速度快、跟指令更贴、话少事快。两者并用,效率拉满。

这段时间,社区里关于 Codex CLIClaude Code 的讨论又热起来了。有人实测用 Cloudflare Worker + Telegram 做了个小工具:监控 Codex 的 GitHub Releases,有新版本就推送到 Telegram。结果很有意思——两家都能“跑通”,体验却各有侧重。

我把要点梳理成一篇「上手就能用」的对比,给你一个清晰的选择。


  • 工程化/扩展性:Claude Code 胜,子代理(Subagents)自定义 Slash 命令Hooks 三件套非常成熟。
  • 执行节奏/规划视图:Codex 的计划面板信息量大;Claude Code 现在默认只显示「当前任务」,流更顺。
  • 指令跟随:Codex(GPT-5 High)对目录结构等显式约束更“听话”;实测里它按 /src 多文件输出,Opus 则把代码塞进 worker.js
  • 抓数策略:同题不同解——Codex 直接用 Atom Feed;Claude Code 调用 GitHub API,都能跑通。
  • 可观测性:Codex 有 /status 看 Token、Ctrl+T 查会话记录(社区也在补齐转存/持久化)。
  • 速度&成本感知:实测单次任务 Token:GPT-5 ≈ 90k、Opus ≈ 50k;因为 GPT-5 每 Token 更便宜,整体成本未必更高——但以当次任务为样本,仅供参考
  • 文档生态:Claude Code 官方文档系统化,Codex 文档在加速完善中。

OpenAI 把 Codex 做成“跑遍全场”的开发代理:CLI、IDE 扩展、云端、GitHub 一体化;用 ChatGPT 账号打通状态,同一任务在本地与云端来回切。VS Code 扩展也上线了,不用折腾 API Key,直接配合云端沙箱执行。

这波更新节奏很快,各媒体与社区都在跟进评测。


正面刚:一次 Cloudflare Worker 实测的关键发现

Section titled “正面刚:一次 Cloudflare Worker 实测的关键发现”

1) 工程化能力:Claude Code 更像“可编排的开发平台”

Section titled “1) 工程化能力:Claude Code 更像“可编排的开发平台””
  • 子代理(Subagents):为任务拆角色、拆上下文,单独的系统提示 + 工具 + 独立上下文,适合「信息采集/方案评审/脚手架生成」分工流。
  • Slash 命令:通过 MCP 自动发现并暴露命令,项目里可以沉淀出“团队级”操作手册。
  • Hooks:在生命周期节点(会话开始/工具执行前后等)强制执行脚本,保证「Lint→Test→Commit」这类动作必达,不再靠模型“心情”。

一句话:要规模化和可控性,Claude Code 的“可编排”优势非常明显。

2) 执行体验:Codex 更“干脆利落”,Claude Code 流更“顺手”

Section titled “2) 执行体验:Codex 更“干脆利落”,Claude Code 流更“顺手””
  • Codex 简洁跟指令更紧,少寒暄,动作快。
  • Claude Code TUI 更成熟,Diff 视图清晰;默认只看“当前任务”,避免被长计划打断思路。
  • 一次测试里,Codex 虽选了“自动运行”,但权限确认仍较频繁;Claude Code 的交互更稳定。

3) 目录与架构遵从:Codex 更爱“照图施工”

Section titled “3) 目录与架构遵从:Codex 更爱“照图施工””

给了同样的项目模板与目录规范:

  • Codex(GPT-5 High)/src 多文件输出;
  • Claude(Opus 4.1) 聚合成单文件 worker.js。 如果你非常在意目录约束,Codex 的“教条性”反而是优点。

4) 数据抓取策略:两条路都通向罗马

Section titled “4) 数据抓取策略:两条路都通向罗马”
  • Codex:抓 Atom Feed,天然结构化。
  • Claude Code:打 GitHub API,字段齐全。 两者都能拿到写 Telegram 所需的信息,只是默认拼装的“信息密度”略有差异。
  • /status 查看 Token 消耗,Ctrl+T 看对话记录;社区还在提 PR 做会话转存与可追溯性增强。

选型建议:不同人群的“最优解”

Section titled “选型建议:不同人群的“最优解””

选 Codex

  • 跟指令更紧、少废话、默认就“能干活”;
  • VS Code 扩展+云沙箱一体化,上手快、环境干净。

你要「可编排、可治理、可沉淀」

Section titled “你要「可编排、可治理、可沉淀」”

选 Claude Code

  • 子代理拆工、Slash 命令沉淀 SOP、Hooks 固化流程;
  • 团队复用度高,适合复杂项目与多人协作。

两者一起上

  • Codex 快速拉起功能、验证方案;
  • Claude Code 固化流程、接驳 CI、沉淀团队命令库。

维度Codex(GPT-5 High)Claude Code(Opus 4.1 为例)
上手速度快、简洁、话少事快略慢,但交互细节更稳
指令遵从(更贴目录/约束)偶有“自作主张”整合输出
工程化CLI + IDE + 云一体,正在加速子代理 / Slash / Hooks 成熟完善
可观测性/statusCtrl+T、社区在完善Diff 视图成熟,任务聚焦更顺手
数据抓取偏向现成结构化源(如 Atom)偏向 API 直连,字段灵活
文档生态在完善,节奏加快体系化强、示例多
典型场景快速建功能、跑实验复杂项目、流程治理、团队沉淀

(表中对比基于公开文档与一次真实测试记录,细节随版本更新可能变化。)


实操建议:把它变成你的日常流水线

Section titled “实操建议:把它变成你的日常流水线”

工作流范式(可直接照抄思路)

  1. Codex 拉起最小可用版本(MVP),确认接口、目录、依赖。

  2. 切到 Claude Code

    • 设一个 “采集子代理” 专抓上下文(文档、API 约束、依赖风险)。
    • Slash 命令 固化常用动作(/lint、/test、/gen-release-notes)。
    • Hooks 强制 CI 前置动作(预提交校验、单测、语义化版本、变更集生成)。
  3. 回到 Codex 做小步快跑的功能追加与回归测试,/status 盯 token。

小贴士:Codex 的“少废话”很适合你边想边改;Claude 的“工程化”很适合你总结为团队资产。


这不是“谁替代谁”的故事。Codex 更像短跑健将Claude Code铁三全能。 用对场景,你会发现两者正好互补。

你更偏向哪种风格?你觉得呢?欢迎留言,我们把这份对比做成持续更新的「选型手册」。

微软CEO公开的 5条AI超级提示词, 能直接用在你日常工作里

这两天,Satya(微软CEO)在 X 上分享了他每天都在用的 5 条 GPT-5/Copilot 提示词。不是花哨的“黑魔法”,而是能立刻省时间的那种。多家媒体已经做了整理与转述。

很多同学问:“领导到底怎么用 AI?” 今天给你一个可直接复制的答案。 我把 Satya 的 5 条提示词,翻译成中文口语 + 可落地模板,并配上工程/产品日常场景

背景:这 5 条提示词来自 Satya 最近在 X 上的分享,媒体随后做了汇编;核心思路是借助 Copilot/GPT-5 从你的邮件、日历、会议纪要、聊天记录里提炼信息,替你做会前准备、项目盘点、节奏校准和复盘


  • 会前不再“尬聊”:预测对方关注点
  • 五分钟搞定“项目周报”
  • “我们按期能发吗?”用数据说话
  • 时间审计:我把时间花在哪了
  • 提前半步:为下一场会生成人类能用的简报
  • 风险与注意
  • 行动清单(可直接粘贴到 Copilot/GPT-5)

会前不再“尬聊”:预测对方关注点

Section titled “会前不再“尬聊”:预测对方关注点”

可用模板(直接贴给 Copilot/GPT-5)

「基于我和【某人/某团队】以往的邮件、会议和聊天,请列出下次会面最可能关注的 5 个议题,按重要度排序,并给出我该准备的 3 个要点潜在分歧。」

为什么好用 它会把历史沟通“捞一遍”,帮你扫盲 + 预判。避免开场那句“那我们今天聊啥”。媒体对这条的转述基本一致。

开发/产品场景

  • 你要跟数据平台组对齐接口变更。让 AI 先归纳对方过去最 care 的点(权限、延迟、SLA…),你准备更有靶心。

可用模板

「请从我最近的邮件、聊天、会议记录汇总,生成一份项目状态更新: 1)KPI & 里程碑;2)进展与胜负(赢了什么、输了什么);3)主要风险与应对;4)友商动态;5)棘手问题与建议回答。」

为什么好用 这相当于AI 做 PM 助理:它不是瞎编,而是从真实沟通里提炼。媒体报道中,这一条被反复引用。

开发/产品场景

  • 周会前 10 分钟把“版本燃尽阻塞点跨组依赖上线节奏”一并梳理出来,Leader 一眼能过。

“我们按期能发吗?”用数据说话

Section titled ““我们按期能发吗?”用数据说话”

可用模板

「请评估我们能否在【日期/月】按期发布【产品/版本】。基于工程进度、测试通过率、关键缺陷、灰度数据、合规/风控清单,给出风险列表按期概率的粗估(%),并列出必要的兜底方案。」

为什么好用 这不是“感觉学”,而是让 AI综合证据给你一个概率判断,同时逼出Plan B。媒体对这条也有明确提及。

开发/产品场景

  • 冲刺末周,用它给上线评审做底稿;把“阻塞 → 风险 → 处置人/时点”自动串起来。

可用模板

「查看我上个月的日历与邮件,把时间归入 5–7 个桶(如管理、招聘、写作、客户、深度工作等),估算各占比,并给出1 段简短总结可优化建议(例如减少空耗会议、把碎片沟通改为异步文档等)。」

为什么好用 你会直观看到“时间哪里被偷走了”。这是 Satya 自己强调的一条。

开发/产品场景

  • 技术总监一看数据就知道:代码评审占比太低、同步会太多、深度工作不足,立刻改排期和协作方式。

提前半步:为下一场会生成人类能用的简报

Section titled “提前半步:为下一场会生成人类能用的简报”

可用模板

「基于我与【参会对象】过往的讨论与选定邮件/文档,请为我生成下次会议的简报:会议目标、双方关切、方案选项、反对点与反驳、待决问题、会后 To-Do(含负责人/DDL)。」

为什么好用 会前 5 分钟读一页纸,你就不会“被动挨打”。媒体报道把它归在“会前准备/简报生成”的场景里。

开发/产品场景

  • 跟业务评审A/B 收益成本测算,AI 事先列好口径关键假设,你更稳。

  • 数据权限:让 Copilot/GPT-5访问你邮箱/日历/会议记录前,先确认公司政策与合规设置。
  • 来源可追溯:要求它列出处(邮件主题、会议名、时间戳),方便你抽样核对。
  • 别全信:AI 给的是摘要与猜测。重要决策要抽样复核
  • 产品入口:这些功能已集成在 Microsoft 365 Copilot + GPT-5 的生态里(Outlook、Teams、Word、Excel)。

1)会前预测

「基于我与【人/团队】历史互动,预测下次会面最可能的 5 个议题,并给我准备要点潜在分歧。」

2)项目周报

「整合近两周的邮件/会议/聊天,生成项目状态更新:KPI/里程碑、进展得失、风险与对策、友商动态、难题&参考回答。」

3)按期概率

「评估我们在【日期】前发布【版本】的按期概率(%),给出风险清单与兜底方案,并标注证据来源。」

4)时间审计

「统计上月我的时间分布到5–7 个桶及占比,附简短总结与优化建议(减少同步会、更多异步文档、集中深度工作时段等)。」

5)会前简报

「用历史讨论与选定邮件生成一页简报:目标、方案选项、反对点&反驳、待决问题、会后 To-Do(Owner/DDL)。」

以上 5 条来自 Satya 公开分享的要点汇编与媒体转引,我做了中文化与工程化改写,便于直接落地。原始报道与转述参见:Tech.co、Times of India、NDTV 等。


这不是更酷的提示词,而是更好的工作方式。 把 AI 当“第二大脑 + 智能秘书”,你会明显感觉:会更顺、报更全、节奏更稳

你觉得哪一条最想先试?留言告诉我

Warp Code 终端编码 Agent 实战

给爱折腾的工程师一句话总结:Warp Code 把“写提示→出代码→改→审→推到生产”塞进了一个终端里,而且支持多模型、代码评审面板、原生编辑器、代码库索引、MCP 外部上下文与规则化可控自治。


这波“Agent 写代码”卷到现在,大家卡的往往是最后一公里:代码“几乎能跑”,但还差一点点;审 diff、改两行、再回 prompt,很碎。Warp Code就是奔着这条“最后一公里”去的:把生成—审阅—微调—合入—上线做成一个流畅闭环,尽量不出终端。

官方称它在 Terminal-Bench #1SWE-bench Verified 75.8%(用 GPT-5 评分,2025-09-02),并强调“可操纵的 Agent(agent steering)”。这些指标与定位,核心都是为了把 prompt→prod 路径打通。


1)端到端闭环: 内置代码评审面板(可看 diff、让 Agent 按行修改、快速回滚)、原生文件编辑器(标签页、文件树、语法高亮、Vim 键位),尽量在一个界面把活干完。

2)强上下文: 代码库实时索引、多仓协同修改;支持把终端输出、文件、图片、URL直接当上下文“喂”给 Agent;还能用 MCP 接入 Linear/Figma/Slack/Sentry 等外部知识。

3)规则与项目化: 项目里用 WARP.md 统一规范(兼容 agents.md / claude.md / cursor 规则),再配 Global/Project RulesAgent Profiles,把团队约定“写死”,让 Agent 更听话。

4)多模型混用: 官方强调混合使用 OpenAI / Anthropic / Google 的最佳模型,并可自动择模。企业版还支持自带模型与数据隔离。

5)“建议式修复”: 编译错误或合并冲突时,Agent 会主动给修复 diff 建议;你可以一键接受、退回或继续对话细化。

6)透明与可控: 可设定自治级别(每步确认/全自动),遥测事件列表公开、内置 Network Log;一键关闭分析数据。


  • macOSbrew install --cask warp
  • Windowswinget install Warp.Warp(支持 x64/ARM64)
  • Linux:提供 .deb / .rpm / AppImage / Arch 包下载。

登录账号可选(支持 GitHub/Google)。不登录也能用;隐私与登录细节见文档。

在项目根目录打开 Warp,执行:

Terminal window
# 让 Warp 索引当前仓库,建立代码库上下文
/index
# 一键初始化项目配置,生成 WARP.md(兼容 agents.md / claude.md / cursor 规则)
/init

随后你就可以在统一输入框(Universal Input)里用自然语言发起任务,@ 文件/日志/URL/图片 作为上下文补充。

设置里新增 MCP Server(CLI 或 SSE),接入你常用的工作流系统(如 Linear/Slack 等),让 Agent 读得到任务、告警、设计稿。


推荐使用场景(结合日常开发)

Section titled “推荐使用场景(结合日常开发)”
  • 在服务目录里粘贴错误日志到输入框,/index 后让 Agent 定位并生成最小修复补丁。
  • 打开代码评审面板审 diff,必要时行内修改部分回滚,合入后让 Agent生成发布命令。
  • 写清目标、输入/输出、边界条件,附上相关文件接口文档 URL
  • Agent 生成代码→你在评审面板细化→原地编辑补齐细节→提交。
  • 把需求抽成 RulesWARP.md,下次同类任务一条指令即复用。
  • 让 Agent 基于全仓索引批量改名/抽象,并分步出 PR。
  • 通过 /diff-review 快速浏览修改,遇到冲突触发建议式修复
  • WARP.md + Project Rules 写清代码风格、提交规约、依赖开关。
  • 新人直接“对着项目提问”,Agent 会结合规则与索引少走弯路
  • 借助终端级集成,Agent 能响应系统事件、生成/解释命令、对日志做归因,再配上 MCP 读告警与工单。

  • **模型选择:**让 Warp Auto 自动择模,或手动切到你偏好的模型组合。
  • 会话续聊:CMD+Y 打开会话列表,继续在同一上下文里追问。
  • Slash 命令:/index 索引仓库、/init 初始化项目、/diff-review 打开评审;常用操作都能靠 Slash 调起。
  • 编辑器就地改:遇到 80% 正确的生成结果,直接在内置编辑器改完再让 Agent 补测试,比来回提示更快。
  • 隐私与遥测:一键禁用分析数据,事件清单公开且有 Network Log;企业版支持 BYO LLM、数据不进外部模型训练。

  • AI“几乎对”的尴尬依然存在,所以代码评审+行内改是常态化路径;这恰好是 Warp Code 的设计重点。
  • Agent 共享限制:会话共享时,Agent 交互块不一定可分享;注意团队协作时的可见性。

如果你已经在用 Claude Code、Cursor、Gemini CLI 等工具,Warp Code更像是把这些能力**“合在一个终端里”,补上评审与轻编辑**,再给到强上下文与团队规范闭环更短、可控更强、切换更少。值不值得?拉一个真实需求,试 1 天就知道。


  • macOSbrew install --cask warp
  • Windowswinget install Warp.Warp
  • Linux:到官网选择 .deb / .rpm / AppImage / Arch 对应架构下载。

CodeX 推荐 GPT-5 编码实践

这代 GPT-5 明显更“懂事”。更会遵命,更会规划,也更敢自己查和动手。 但也有个坑:你越含糊,它越容易“过度发挥”

帮你用最少的话,把 GPT-5 变成可靠的编程搭子:能按你的规矩来、在你的节奏里干活,还能少走弯路。要点都来自 OpenAI 的官方备忘 & 指南,我替你啃过了。


一、先把话说清楚:别给冲突的规则

Section titled “一、先把话说清楚:别给冲突的规则”

GPT-5 的指令跟随更强,但怕“相互打架”的要求。比如 .cursor/rulesAGENTS.md 里写了 A 规则,提示词又塞了相反的 B,模型会纠结,最后谁也没服务好。 动作要领:统一你的“项目规矩”,一句话说一件事,别多线并行喊口号。

小贴士:把“团队约定”集中放到一个文件,再用同一段“规矩”注入到每次对话。


二、选对“思考强度”:越难越要 High,越易就降档

Section titled “二、选对“思考强度”:越难越要 High,越易就降档”

GPT-5 默认会动脑,但可以调“reasoning_effort”。 难题就high,常规就medium/low,避免小题大做、工具乱跑。官方指南还引入了minimal reasoning,给追求速度的人用。

经验值:

  • 重构多文件/跨模块 → high。
  • 小改样式/简单脚本 → medium 或 low。

三、用“XML样式”的提示词,把规矩装进模块

Section titled “三、用“XML样式”的提示词,把规矩装进模块”

GPT-5 对结构化提示很吃这套。用类似 XML 的块把“原则、默认栈、目录规范”分开,模型更稳、更一致。

拿去即用:

<code_editing_rules>
<guiding_principles>
- 组件可复用、命名清晰、少魔法
</guiding_principles>
<frontend_stack_defaults>
- Framework: Next.js (TS)
- Styling: TailwindCSS
- UI: shadcn/ui
</frontend_stack_defaults>
</code_editing_rules>

一定要全面、一定要先把所有信息找全再回答” 这类语气,在 GPT-5 上可能适得其反:它会疯狂调用工具、狂搜上下文,既慢又贵。放松点,给边界就好。


零到一做新应用时,加一段自我规划与自检的流程,质量会明显更稳。让模型先想“评判标准”,再按标准迭代出方案。

模板片段:

<self_reflection>
- 先构造评审rubric(5-7项,不对外展示)
- 按rubric迭代方案与实现,不达标就重来
</self_reflection>

六、管住“过分热情”:设置工具预算 & 汇报频率

Section titled “六、管住“过分热情”:设置工具预算 & 汇报频率”

GPT-5 默认挺主动,会尽量把上下文搜全。你可以用提示词规定“热情度”

  • 什么时候并行搜索;
  • 最多能调几次工具;
  • 何时向人类汇报进度。

两种风格的现成块:

  • 省时保守型(低热情/低预算)
<context_gathering>
- 目标:尽快够用即停;最多2次工具调用
- 先宽后窄,一轮并行检索,命中70%即开干
</context_gathering>
  • 全力探索型(高热情/高坚持)
<persistence>
- 在问题完全解决前不要交还
- 不要反复问人类确认;自行假设并记录
</persistence>

另外,开启**“工具前言(tool preambles)”,让模型边做边说计划与进度**,用户视角更跟得上。


  • IDE 搭子:用 OpenAI 的 Codex IDE 扩展配合 GPT-5 做文件读改跑,一键并肩开发;官方页还给了 AGENTS.md 参考。
  • Responses API:多回合工具调用时,复用上一轮的推理上下文,更快更省。生产上建议用 Responses API 做智能编排。
  • 参数基线:在“可控成本”的前提下,默认 medium;遇到复杂重构再拉到high,对延迟敏感就试试minimal

八、团队协作的“统一口径”清单(可贴进你们仓库)

Section titled “八、团队协作的“统一口径”清单(可贴进你们仓库)”
<team_conventions>
- 目录结构、命名、提交信息规范(一处维护,多处复用)
- 组件/接口“完成定义”(含测试、文档、可回滚)
- 工具预算:常规≤2次;复杂任务≤6次
- 失败重试策略与回滚脚本
- 何时需要人类评审/手动确认
</team_conventions>

这段和第三节的 <code_editing_rules> 搭配使用,基本能把 GPT-5 的输出拉到“团队级一致性”。


一句话总结:规则要统一,思考要分档,过程要可控。 把这三件事做到位,GPT-5 就能在你的代码库里又快又稳地交付,而不是“聪明反被聪明误”。更多细节可对照官方备忘和指南,结合团队风格微调。

不想 Claude Code 把代码喂给 Anthropic?参考这份隐私设置清单

省流版个人账号(Free/Pro/Max)去 claude.ai → Settings → Data & Privacy 把“用于改进模型”关掉;组织/API 默认不用于训练,想再稳,给 Claude Code 配 零数据保留(ZDR)API 密钥;本机把 Statsig 遥测/Sentry 错误关了,不要用 /bug 上传会话,定期清理本地缓存。


Anthropic 正在调整消费者产品(含 Claude、Pro、Max,以及用这些账号登录的 Claude Code)的数据策略:你可以选择是否允许聊天与编码会话用于训练;选择 允许 时,保留期最高 5 年不允许 时,服务端最长保留 30 天用于运行与合规。这个选择只影响新建或恢复”的会话(不会倒查沉睡历史)。入口就在隐私设置里,可随时更改。

想了解行业解读与时限提醒,可看 The Verge / Tom’s Guide 的整理。


目标:不让你的聊天与代码被用于训练。

怎么做

  1. 打开:claude.ai → Settings → Data & Privacy
  2. 关闭 “Use my chats/coding sessions to improve Claude”(类似字样)。
  3. 记住:只对新建/恢复的会话生效;删除的对话不会被用于训练。你以后也能改回,但已用于训练的数据不可回退

保留规则(你关闭训练的情况下):后端存储最多 30 天


② 团队 / 企业 / API(商业产品)

Section titled “② 团队 / 企业 / API(商业产品)”

默认就更稳:Anthropic 的商业产品(Claude for Work、Anthropic API、Claude Gov 等)默认不会把你的输入/输出用于训练

更稳一层(推荐):签 Zero Data Retention(ZDR,零数据保留) 协议,并在 Claude Code 使用组织的 API Key。ZDR 目前只适用于 Anthropic API 及使用你组织 API Key 的产品(包括 Claude Code)

默认保留期:API 侧30 天自动删除(如未约定 ZDR,且法律/风控无额外要求)。


③ 走云厂商通道(Bedrock / Vertex),再加一层“隔离”

Section titled “③ 走云厂商通道(Bedrock / Vertex),再加一层“隔离””
  • AWS Bedrock:明确不会使用你的输入/输出来训练模型;且条款中对第三方模型(如 Anthropic)也有限定。
  • Google Vertex AI:有专门的数据治理与缓存说明,企业可按需配置以达成合规与最小化保留(注意阅读缓存与治理细节)。

这层“云侧隔离”适合强合规行业,把调度、日志、KMS 等都放在云账号里统一治理。


下面是“不外传”实践里最容易忽略的点,做完就安心许多。

A. 关遥测与错误上报(保留运行指标不上传)

Section titled “A. 关遥测与错误上报(保留运行指标不上传)”

官方文档支持的环境变量(跨平台示例):

Terminal window
# 关闭 Statsig 遥测(不含代码/文件路径)
export DISABLE_TELEMETRY=1
# 关闭 Sentry 错误上报
export DISABLE_ERROR_REPORTING=1
# 关闭 /bug 命令(不含代码/文件路径)
export DISABLE_BUG_COMMAND=1
# 关闭所有非必要的网络请求(更彻底)
export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1

也可在 ~/.claude/settings.jsonenv 节点写入,项目里用 .claude/settings.local.json 覆盖。

"env": {
"DISABLE_TELEMETRY": "1",
"DISABLE_ERROR_REPORTING": "1",
"DISABLE_BUG_COMMAND": "1",
"CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": "1"
}

B. 避免把完整会话打包上送(别随手 /bug

Section titled “B. 避免把完整会话打包上送(别随手 /bug)”
  • 官方建议/bug 提交问题;它会把上下文打包给 Anthropic 做诊断,所以涉及敏感仓库/代码时尽量别用
  • 社区有人汇总了可禁用 /bug 的环境变量DISABLE_BUG_COMMAND=1),属“非官方/可能变更”,仅供参考。
  • 官方说明:客户端本地可缓存会话最多 30 天以便恢复(可配置)。在敏感环境建议定期清理 ~/.claude/ 并把缓存期降到最低。
  • 社区曾反馈过 .claude.json 留存对话片段 的 issue,属于行为反馈而非官方承诺;建议把 .claude/ 納入你的安全基线与备份排除清单。

一套“万无一失”的组合拳(可直接抄)

Section titled “一套“万无一失”的组合拳(可直接抄)”

个人账号(必须做)

  1. 关“用于改进模型”。
  2. 定期清 ~/.claude/,误用 /bug 前先做脱敏
  3. 设:DISABLE_TELEMETRY=1DISABLE_ERROR_REPORTING=1

团队/企业(强烈推荐)

  1. 只用组织 API Key 登录 Claude Code;若可行,签 ZDR
  2. 服务器与 CI/CD 里统一注入禁传变量(上面 A)。
  3. 优先走 Bedrock/Vertex 通道,落地云侧 DLP/KMS 与访问审计。

  • 误区 1:“我把历史对话删了,就不会被训练。” → 删除后不会用于训练,但是否被训练过取决于你当时的设置;已训练不可逆

  • 误区 2:“我用 Claude Code 就等于企业级保护。” → 取决于你用的账号与密钥。个人账号登录的 Claude Code 仍受个人条款约束。

  • 误区 3:“走 Bedrock/Vertex 就什么都不用管了。” → 还需要你自己配置权限边界、密钥管理、日志策略与缓存治理。文档写得很清楚。


数据隐私从来不是“全开/全关”的开关,而是一整套习惯配置到位 + 工具到位 + 团队纪律到位。把上面的清单一次性走完,你的代码与对话基本就不会被分享给 Anthropic 用于训练,同时也能保住团队的合规边界

英伟达:十年十万亿市值背后的市盈率估值深度分析

英伟达:十年十万亿市值背后的市盈率估值深度分析

Section titled “英伟达:十年十万亿市值背后的市盈率估值深度分析”

在当前全球科技投资的浪潮之巅,英伟达(NVIDIA)无疑是那颗最耀眼的明星。然而,这家市值一度突破4万亿美元的巨头,其近期股价走势却让许多人感到困惑。根据最近的财报数据,英伟达的表现超出了华尔街的普遍预期,但其股价却在盘后交易中应声下跌,甚至一度进入技术性熊市。这种“超预期却下跌”的悖论,不禁引人深思:这究竟是短期市场情绪的过激反应,还是一个被高估的神话开始走向破灭?

本篇文章将从市盈率(P/E)这一核心估值指标切入,对英伟达的价值进行一次全面、深入的剖析。我们将审视其最新的财务数据,回顾其估值的历史变迁,分析支撑其高增长的长期引擎与潜在风险,并最终展望其在未来十年内的发展路径,为普通投资者提供一个清晰、理性的视角。

财报超预期,股价为何反而下跌?

Section titled “财报超预期,股价为何反而下跌?”

表面上看,英伟达最新的财报数据堪称“完美”。根据2026财年第二季度财报,公司总营收达到467亿,同比增长56460.5亿。净利润同样表现强劲,飙升59%至264亿,稀释后每股收益(EPS)为1.05,也高于市场普遍预期的1.01[1,4]。此外,英伟达对第三季度的营收展望为540亿,同样高于华尔街预期的531亿[1,4]。为了进一步回馈股东,公司董事会还批准了一项高达600亿的股票回购计划。

然而,面对如此亮眼的成绩单,市场却投出了“不信任票”。这种看似矛盾的现象,其核心原因在于英伟达所面临的“超高预期”环境。对于一家在过去一年股价几乎翻了三倍、市值增加了$2万亿的公司来说,市场早已习惯了其“奇迹般”的增长。因此,任何一丝不及预期的表现,都足以引发强烈的失望情绪。

具体来说,投资者将目光聚焦在其核心的“数据中心”业务上。尽管该部门贡献了总营收的88%(411亿),并实现了56413亿。对于一家以数据中心业务作为主要增长引擎的公司而言,这种“微小的失落”被市场解读为增长可能正在触及短期天花板的信号。此外,尽管56%的同比增长对绝大多数公司来说已是奇迹,但这也是英伟达自AI热潮开始以来连续九个季度中增长最慢的一次。

因此,当市场对一家公司的期望值达到“完美无瑕”的程度时,即使是“出色”的财报也会因为无法满足“神话级”的增长渴求而引发抛售。股价的短期波动,恰恰反映了投资者对公司增长前景的敏感性。

下表总结了英伟达本季度的核心财务表现:

表1:英伟达2026财年第二季度核心财务数据概览

财务指标实际数据(美元)市场预期(美元)同比增长备注
总营收$467亿$460.5亿56%超出预期,但增速为九个季度以来最低
数据中心营收$411亿$413亿56%略低于预期,引发市场担忧
游戏业务营收$43亿-49%-
机器人业务营收$5.86亿-69%-
净利润(GAAP)$264亿-59%-
每股收益(Non-GAAP)$1.05$1.0154%超出预期
第三季度营收指引$540亿±2%$531亿-超出预期,但不包含对华H20芯片出货
董事会回购授权$600亿--彰显管理层信心,但或暗示增长进入新阶段

数据来源:相关财报及市场分析

市盈率这把“尺子”:历史、现状与高估值之辩

Section titled “市盈率这把“尺子”:历史、现状与高估值之辩”

要理解英伟达的长期价值,我们不能仅仅盯着短期的股价波动,而必须借助于市盈率(P/E)这把估值“尺子”。通俗来说,市盈率是衡量投资者愿意为公司每一美元的盈利支付多少价格的指标。对于高速增长的公司而言,投资者通常会接受更高的市盈率,因为它包含了对未来盈利将持续高速增长的乐观预期。

英伟达的市盈率演变可以被划分为三个阶段:

  • 第一阶段(AI前夕):在AI热潮全面爆发之前,英伟达的市盈率在20-60倍之间波动,主要由其在游戏和加密货币领域的强劲表现驱动。

  • 第二阶段(AI热潮初期):随着ChatGPT等大语言模型的横空出世,市场对AI的狂热追逐达到了顶峰。投资者将英伟达视为AI时代的“卖铲人”,其市盈率也因此在2023年4月一度飙升至历史峰值138.75倍,甚至有分析认为其曾高达144倍。这种极高的估值反映了市场的极度狂热情绪。

  • 第三阶段(估值理性回归):令人意外的是,尽管此后英伟达的股价仍在上涨,但其市盈率却在持续回落。目前,英伟达的市盈率已经稳定在51倍左右,低于其过去三年和五年的平均值67.91倍和67.55倍。

这种市盈率的下降并非坏事,它恰恰是公司基本面正在“追上”估值的健康信号。市盈率的计算公式是:P/E=P(股价)/E(每股收益)。英伟达市盈率的下降,不是因为股价(P)在崩溃,而是因为其盈利(E)在以远超股价的速度爆炸式增长。这表明公司正在从一个“故事驱动型”公司,转变为一个“盈利驱动型”公司,其价值正由实实在在的财务数据所支撑,而非仅仅是市场的投机情绪。

当我们将英伟达的市盈率与其他科技巨头进行横向比较时,这一点看得更加清楚:

表2:科技巨头市盈率对比(截至2025年8月)

公司名称市盈率(P/E)市值(万亿美元)主要业务方向
英伟达(NVDA)49.24.12AI芯片、数据中心、游戏
超微(AMD)90.330.256CPU、GPU、AI芯片
微软(MSFT)36.583.73云计算、软件、AI
亚马逊(AMZN)34.232.4电商、云计算(AWS)

数据来源:FullRatio, eToro, Public.com

从上表可以看出,英伟达的市盈率高于相对成熟的科技蓝筹股(如微软和亚马逊),这反映了市场对其高增长潜力的溢价支付。但其市盈率却低于其主要竞争对手超微(AMD),且已经从其历史峰值大幅回落。这表明,尽管其估值仍处于高位,但已进入一个相对理性的区间,与那些价格远超内在价值的“泡沫”有着本质区别。

支撑估值的高速引擎:未来十年的核心增长驱动力

Section titled “支撑估值的高速引擎:未来十年的核心增长驱动力”

尽管短期市场情绪波动剧烈,但从长期来看,英伟达的估值将由其未来的增长潜力决定。而支撑其持续增长的核心驱动力,可以总结为以下三点:

1. AI基础设施的“淘金热”:卖铲人的黄金时代

Section titled “1. AI基础设施的“淘金热”:卖铲人的黄金时代”

英伟达首席执行官黄仁勋在多个场合强调,AI并非昙花一现的时尚,而是一场席卷全球的“新工业革命”。他预测,到2030年,全球在AI基础设施上的支出将达到惊人的3万亿至4万亿。

这一庞大的市场并非只由少数几家超大规模云服务商(如微软、Meta)所驱动。AI的下一个阶段将从大模型训练向“智能体(Agentic AI)”和“物理AI与机器人”发展。这些更高级的应用将需要比现有系统高出100到1000倍的算力。因此,全球各地的企业、研究机构、甚至主权国家都将竞相投入,自建“AI数据中心”,这为英伟达提供了近乎无限的长期增长空间。在AI时代的“淘金热”中,英伟达作为“卖铲人”,无疑处于最有利的位置。

2. 软件生态壁垒(CUDA):无人可及的护城河

Section titled “2. 软件生态壁垒(CUDA):无人可及的护城河”

英伟达在AI芯片领域的主导地位,不仅仅依赖于其先进的硬件技术,更在于其构筑的强大软件生态系统——CUDA。英伟达在AI加速器市场占据了约80%的份额,其CUDA生态系统是这一地位的基石。

硬件芯片可以被其他公司模仿甚至赶超,但强大的软件生态系统是难以在短时间内复制的。CUDA让全球数百万开发者可以轻松地在英伟达的GPU上构建和训练AI模型,形成了强大的“开发者锁定效应”。这使得即使竞争对手的芯片在某些性能或价格上具有优势,客户也难以放弃英伟达的生态系统,因为迁移成本极高。这种“硬件+软件”的深度绑定,是英伟达能够长期维持高毛利率(Q2财报显示GAAP毛利率为72.4%)和高定价能力的核心原因。

英伟达并未满足于现状,其产品迭代和业务扩张正在以前所未有的速度推进。其新一代AI平台Blackwell需求强劲,在2026财年第二季度实现了17%的环比增长,在短短一季内就贡献了$270亿营收。

更重要的是,英伟达正在将业务模式从单一芯片销售,向“机架级计算”和完整的“AI工厂”解决方案转型。公司预计在下半年实现每周生产1000个机架的产能,这意味着其正在深化其在AI价值链中的地位,并进一步巩固其在数据中心领域的领导力。

此外,黄仁勋也明确表示,除了数据中心,机器人和物理AI将是下一个“万亿市场”。英伟达在这些领域的布局,为其提供了超越数据中心的长期增长点。

估值面临的“达摩克利斯之剑”:地缘与竞争风险

Section titled “估值面临的“达摩克利斯之剑”:地缘与竞争风险”

尽管前景广阔,但英伟达的高估值也并非毫无风险。其面临的挑战,如同高悬于头顶的“达摩克利斯之剑”,时刻提醒着投资者潜在的威胁。

1. 地缘政治迷雾:中国市场的冲击与不确定性

Section titled “1. 地缘政治迷雾:中国市场的冲击与不确定性”

中美地缘政治紧张是英伟达面临的最大不确定性之一。美国政府对向中国出口先进AI芯片的严格限制,对英伟达的中国业务造成了巨大冲击。根据首席执行官黄仁勋的说法,英伟达在中国的市场份额已从过去的95%骤降至50%。

黄仁勋曾估计,仅H20芯片的出口禁令一项就可能导致高达$150亿的收入损失。尽管特朗普政府曾临时批准H20芯片对华出口,但这一授权附加了苛刻的条件,即英伟达需要将销售收入的15%上缴给美国政府。更重要的是,H20芯片的出货因地缘政治不确定性,甚至没有被纳入英伟达最新的营收指引中。中国市场曾是英伟达的重要增长引擎,而现在已成为其营收中一个巨大的不确定性来源。

2. 竞争对手的追赶与“分蛋糕”

Section titled “2. 竞争对手的追赶与“分蛋糕””

英伟达在AI领域的统治地位,正在吸引越来越多的竞争者。其主要对手超微(AMD)和英特尔都在奋力追赶。AMD的MI300系列在性能上紧追不舍,而英特尔则采取了差异化策略,其Gaudi芯片的目标是比英伟达H100便宜50%,以抢占那些对价格敏感的企业市场。

这种竞争模式将逐渐改变市场格局,从英伟达的“一家独大”向“差异化竞争”演变。尽管英伟达在短期内仍将保持主导地位,但长期来看,竞争的加剧将不可避免地对公司的毛利率和市场份额构成压力。

最后,我们必须清醒地认识到,半导体行业是一个典型的周期性行业。历史数据显示,在过去的34年里,该行业经历了九次增长与收缩的交替。尽管AI的爆发被视为一个可以打破周期的“超级周期”,但历史告诉我们,没有任何一个行业可以永远摆脱周期性波动。如果AI热潮在未来几年出现“技术瓶颈”或“投资放缓”,英伟达的增长也可能面临挑战。

下表总结了英伟达未来可能面临的主要风险与挑战:

表3:英伟达面临的主要风险与挑战

风险类别具体挑战潜在影响
地缘政治风险中美芯片出口管制、中国市场份额下降、H20出货不确定性营收损失、利润侵蚀、股价剧烈波动
竞争风险AMD、英特尔等对手的追赶与差异化竞争策略市场份额下降、毛利率受压、定价能力减弱
行业周期性半导体行业固有的周期性波动增长放缓、业绩不及预期、股价回调
估值风险市场对高增长预期可能无法持续估值收缩、股价回调风险

基于市盈率的长期展望与投资建议

Section titled “基于市盈率的长期展望与投资建议”

综合以上分析,我们可以为英伟达未来十年的走势构建一个动态的估值框架。目前,分析师普遍预期,随着其盈利的持续高速增长,英伟达的市盈率将继续回落:预计2026年为43.01倍,2027年为32.08倍,到2028年将降至26.55倍。

这一趋势表明,英伟达正在从一个极度依赖“故事”和“预期”的公司,转变为一个由坚实盈利能力驱动的“科技蓝筹股”。这或许意味着,投资者不能再期望股价在短短一年内翻倍,而是要接受其增长曲线变得更加平缓,但回报更依赖于稳健的盈利增长。

十年走势预测:三种情景下的未来

Section titled “十年走势预测:三种情景下的未来”

假设英伟达在未来十年内成功应对地缘政治和竞争挑战,其CUDA生态系统壁垒坚不可摧,并且AI基础设施的万亿市场如期实现。在这种情况下,英伟达将凭借持续的营收和利润增长,继续稳步上行,成为下一个“微软”,其市盈率将保持在30-40倍,但凭借持续增长的盈利,股价仍将稳步上扬。

假设AI热潮只是一个强劲的“超级周期”,而非无限期的“新工业革命”。地缘政治和竞争压力逐渐显现,对英伟达的毛利率和市场份额造成侵蚀。在这种情况下,英伟达的增长速度将趋于平缓,市盈率将降至20-30倍,股价走势波动加剧,呈现出更典型的周期性特征。

假设市场对AI的期望过高,投资回报不及预期。同时,中美关系进一步恶化,全面封锁,导致英伟达失去中国市场。在这种情况下,盈利增长不及预期,市盈率将迅速收缩,股价可能经历大幅回调,重演历史上“泡沫破裂”的剧本。

对于英伟达这种高估值、高波动的公司,投资的本质是对其长期基本面的判断,而非追逐短期的股价波动。投资者应清醒地认识到,尽管英伟达拥有强大的增长引擎和技术护城河,但它也绝非没有风险。

投资者应关注以下几个关键指标:

  • 数据中心业务的增长率:关注其核心业务是否能继续保持稳健增长。
  • 毛利率:密切观察其毛利率是否能维持在70%以上,这直接反映了其定价权和竞争优势。
  • 地缘政治的演变:关注中美关系以及相关政策对公司业务的实际影响。
  • 竞争对手的进展:评估AMD和英特尔等公司的AI芯片是否正在撼动其市场地位。

总而言之,英伟达并非简单的“泡沫”,其高估值有强大的基本面和广阔的市场前景作为支撑。然而,它也面临着严峻的挑战。未来十年,英伟达能否继续成为AI时代的王者,将取决于它能否在保持技术领先的同时,有效应对地缘政治和日益激烈的竞争,最终将“市盈率的故事”转化为“持续增长的现实”。

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

Claude Code 1.0.9x:权限规则、记忆编辑、Vertex 全局端点等多项优化

1.0.90~1.0.97 这几次快节奏小更新,把“权限规则校验、记忆编辑、Vertex 全局端点、代理兼容、热加载设置、待办清单”等痛点一口气打通,工程师的执行闭环更顺手了。


这两周 Claude Code 连着更了好几个小版本。看似“微调”,但都是日常高频操作:写权限规则不报错了、记忆文件能直接改、Vertex 走全局端点更稳、Windows 贴图更顺手、设置改了马上生效。下面用上手视角,带你一条条看影响最大的点,并给出可复制的用法。


  • 1.0.97/doctor 支持权限规则语法校验并给出修正建议。不再因为一个括号或通配写错卡半天。

  • 1.0.94

    • Vertex 支持全局端点(global endpoint),跨区可用性更高。
    • /memory 现在可以直接编辑所有导入的记忆文件,组织团队指令更轻松。
    • SDK 增加“自定义工具作为回调”能力(in-process MCP / 回调钩子),更易把你自己的工具链接入代理循环。
    • 新增 /todos,可列出当前任务清单,配合“计划—执行—核对”闭环更自然。
  • 1.0.93

    • Windows 新增 Alt + V 从剪贴板粘贴图片,记录报错截图、白板草图更快。
    • 支持 NO_PROXY 绕过指定主机/网段(结合 HTTP(S)_PROXY),企业网络/自建代理更好配。
  • 1.0.90设置文件改动立即生效,无需重启。注意:hooks 有例外(下节详解)。

版本节奏很快,确认自己已跟上:

Terminal window
npm i -g @anthropic-ai/claude-code
claude update
>
claude -v # 应显示 1.0.9x+

01 规则不再“玄学”:用 /doctor 体检权限设置(1.0.97)

Section titled “01 规则不再“玄学”:用 /doctor 体检权限设置(1.0.97)”

权限是 Claude Code 的刹车和油门。以前写 allow/deny 容易踩坑,现在直接:

/doctor

它会校验语法指出问题、并给出修正建议。例如你写了:

{
"permissions": {
"allow": ["Bash(git commit:*)", "Edit", "ReadFile:*"],
"deny": ["Bash(rm -rf *)"]
}
}

/doctor 能提示通配是否正确、是否被更高优先级规则覆盖等。这对团队统一“可执行命令白名单”很关键。

顺带补一嘴安全边界:社区曾反馈过deny 规则失效命令链路绕过等案例,写规则时别贪心,先最小权限再逐步放开。


02 团队记忆随手改:/memory 直接编辑(1.0.94)

Section titled “02 团队记忆随手改:/memory 直接编辑(1.0.94)”

现在 /memory 不止能看加载了哪些 CLAUDE.md,还能直接打开并编辑这些文件(包括用 @path/to/file 导入的多级记忆)。 好处有三: 1)一处修订,全队生效(把项目约定写进仓库)。 2)模块化(用 @导入 分层管理:架构、Git 规范、脚手架命令等)。 3)即时迭代(配合下节热加载)。 命令:

/memory # 查看&编辑项目/个人/组织级 CLAUDE.md

官方文档已把导入、多层查找、组织级路径等机制写清楚,建议直接落到你们仓库。


03 Vertex 全局端点:跨区更稳、更省心(1.0.94)

Section titled “03 Vertex 全局端点:跨区更稳、更省心(1.0.94)”

如果你走 Google Vertex AI 计费,现在可使用全局端点来动态路由到可用区,提升可用性与稳定性。这对“夜间长任务”“提审前 CI 一把过”很香。文档也明确了 Claude Code 支持 Vertex 的全球与区域端点

小贴士:不同区域可用的具体模型/别名不完全一致,切换时注意 endpoint 与 model 的映射关系。


04 设置热加载,但 Hooks 需确认(1.0.90)

Section titled “04 设置热加载,但 Hooks 需确认(1.0.90)”

1.0.90 起,多数设置改了就生效,不用重启会话。这让调参—再试的反馈环更快。 例外Hooks(执行前/后的自定义钩子)不会立刻替换。当前会话会使用启动时的快照,你修改后需要在 /hooks 菜单里review & apply。这个细节别忽略。


05 企业网络友好:NO_PROXY & 贴图体验(1.0.93)

Section titled “05 企业网络友好:NO_PROXY & 贴图体验(1.0.93)”
  • NO_PROXY 支持:在复杂内网/多跳代理下,给部分主机或网段直连,旁路掉全局代理。与 HTTP_PROXY/HTTPS_PROXY 一起配,常见的 CI、堡垒机场景更顺。
  • Windows Alt + V 贴图:终端里直接贴图,更适合把错误截图/表格塞进上下文,加速“定位—修复”。

06 SDK 回调 & 自定义工具:把你的流水线接进来(1.0.94)

Section titled “06 SDK 回调 & 自定义工具:把你的流水线接进来(1.0.94)”

TypeScript SDK 支持进程内 MCP 服务器自定义工具,你可以把“项目构建、Lint、发布前检查、灰度回滚”等动作,变成 Claude 的“工具调用”。配合回调/钩子,把成功/失败处理审计记录串起来。


1)体检权限

/doctor
/permissions # 查看当前 allow/deny
/config # 打开设置面板

2)记忆分层

CLAUDE.md
@docs/architecture.md
@docs/git.md
@~/.claude/personal-rules.md
/memory # 直接编辑以上文件

3)Vertex 全局端点(示意) 在环境中改为 global endpoint(按照 GCP 文档的格式与可用模型来):

具体端点与地区支持以官方文档为准。

4)企业代理

Terminal window
export HTTPS_PROXY=http://user:pass@proxy.example.com:8080
export NO_PROXY=localhost,127.0.0.1,.corp.example.com

这轮 1.0.9x 的更新没有喧嚣,但每一项都在“落地效率”上给你加分权限更稳、记忆更易管、网络更可用、设置更顺手、任务有清单。 如果你准备把“代理式开发”推向团队协作层面,先把权限与记忆这两件事做扎实,收益立竿见影。

你觉得这波更新里,哪一条最有用?留言区聊聊你的实践。

Claude Code CLI Config 配置攻略

想把 Claude Code 用出“顺手、稳、快”的感觉? 一份 claude config 命令速查 + 常用场景模板,拎包就走,团队立刻对齐。

这篇更偏实战手册:命令能直接贴,配置能直接用,出问题能迅速排。 关键出处都给你标好,方便你转给同事背书。


  • 省时:模型、权限、环境变量一次设好,少来回;
  • 省心:企业策略、项目配置、个人习惯各就各位,不打架;
  • 更安全:把敏感文件和危险命令彻底拉黑,避免“手滑”。

最常见就这几条(支持 -g/--global 设全局):

Terminal window
# 查看所有配置
claude config list
# 查某一项
claude config get <key>
# 改某一项
claude config set <key> <value>
# 往“列表型配置”追加/删除
claude config add <key> <value>
claude config remove <key> <value>
# 例如:设全局主题 & 项目默认模型
claude config set -g theme dark
claude config set model claude-sonnet-4-20250514

官方文档明确列了这些子命令与 -g/--global 的作用域说明。


二、配置文件放哪?谁说了算?

Section titled “二、配置文件放哪?谁说了算?”

层级与优先级(从高到低)

  1. 企业管控策略(不能被覆盖)
  • macOS:/Library/Application Support/ClaudeCode/managed-settings.json
  • Linux/WSL:/etc/claude-code/managed-settings.json
  • Windows:C:\ProgramData\ClaudeCode\managed-settings.json
  1. 命令行参数(本次会话临时覆盖)

  2. 项目本地:.claude/settings.local.json(个人、git 忽略)

  3. 项目共享:.claude/settings.json(团队共用)

  4. 用户全局:~/.claude/settings.json(个人默认)

官方“Settings”页把路径、优先级和样例都写清楚了,发给 IT 也能对上术语。


三、最常用的 8 个配置,一把梭

Section titled “三、最常用的 8 个配置,一把梭”
Terminal window
claude config set -g theme dark
claude config set -g verbose true

themeverbose 都是内置键;verbose 默认 false。


2) 默认模型(四种方式,按优先级生效)

Section titled “2) 默认模型(四种方式,按优先级生效)”
  • 启动参数:claude --model <alias|name>
  • 会话内:/model sonnet
  • 环境变量:export ANTHROPIC_MODEL=opus
  • 设置文件:"model": "claude-sonnet-4-20250514"

官方给了优先级顺序与示例,团队写在 README 里就不再争。

建议组合(稳妥实操):

Terminal window
# 全局默认:均衡
claude config set -g model claude-sonnet-4-20250514
# 某些项目需要极致表达
claude --model opus

3) 禁用非必要流量(隐私/内网一把过)

Section titled “3) 禁用非必要流量(隐私/内网一把过)”
Terminal window
# 三选一:settings.json、全局 env、临时 env
claude config set -g env.CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC 1
echo 'export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1' >> ~/.zshrc
CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1 claude

该变量等价于同时设置:DISABLE_AUTOUPDATERDISABLE_BUG_COMMANDDISABLE_ERROR_REPORTINGDISABLE_TELEMETRY


4) Git 提交别带“Co-authored-by Claude”

Section titled “4) Git 提交别带“Co-authored-by Claude””
Terminal window
claude config set includeCoAuthoredBy false

includeCoAuthoredBy 为官方支持键,默认 true。


5) 任务完成响铃(长任务不盯屏)

Section titled “5) 任务完成响铃(长任务不盯屏)”
Terminal window
claude config set -g preferredNotifChannel terminal_bell

官方“Terminal configuration”给的推荐写法,macOS 记得开启通知权限。


6) 项目权限白/黑名单(强烈建议配置)

Section titled “6) 项目权限白/黑名单(强烈建议配置)”
.claude/settings.json
{
"permissions": {
"allow": [
"Bash(npm run lint)",
"Bash(npm run test:*)",
"Read(~/.zshrc)"
],
"deny": [
"Bash(curl:*)",
"Read(./.env)",
"Read(./.env.*)",
"Read(./secrets/**)"
]
}
}

permissions.allow/ask/deny 是新机制,替代旧的 ignorePatterns;适合彻底屏蔽 secrets。


7) 状态栏(Status Line):展示模型、分支、成本提示

Section titled “7) 状态栏(Status Line):展示模型、分支、成本提示”
.claude/settings.json
{ "statusLine": { "type": "command", "command": "~/.claude/statusline.sh" } }

也可直接 /statusline 让 Claude 生成脚本雏形。


8) 企业统一策略(安规落地必备)

Section titled “8) 企业统一策略(安规落地必备)”
  • 通过 managed-settings.json 强制禁用某些权限/工具;
  • 可关闭“绕过权限模式”,确保每次敏感动作都要确认:
{
"permissions": {
"defaultMode": "acceptEdits",
"disableBypassPermissionsMode": "disable"
}
}

企业策略路径与“权限管控”开关均在官方文档中有说明。


四、团队落地 5 个“即插即用”模板

Section titled “四、团队落地 5 个“即插即用”模板”
Terminal window
# 关闭非必要流量、错误上报、/bug、自动更新
claude config set -g env.CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC 1
claude config set -g theme dark
claude config set -g verbose true
claude config set -g model claude-sonnet-4-20250514

变量含义与效果见“Environment variables”表。


模板 B|前端项目(安全白名单)

Section titled “模板 B|前端项目(安全白名单)”
Terminal window
claude config add permissions.allow "Bash(npm run dev)"
claude config add permissions.allow "Bash(npm run test:*)"
claude config add permissions.deny "Read(./.env)"
claude config add permissions.deny "Read(./secrets/**)"

允许测试相关命令,拒绝读取 .envsecrets


Terminal window
# 默认均衡;出现复杂需求临时切 Opus
claude config set -g model claude-sonnet-4-20250514
# 会话内再 /model opus

模型切换优先级按“Model configuration”执行,CLI > 环境变量 > 设置文件。


Terminal window
claude config set -g preferredNotifChannel terminal_bell

终端响铃更适合 CI/脚手架生成场景。


Terminal window
claude config set includeCoAuthoredBy false

团队不想在提交信息里出现 AI 共著时,统一关掉。


五、你可能会踩的坑(顺手化解)

Section titled “五、你可能会踩的坑(顺手化解)”
  • “为啥我改了还不生效?” 看层级。企业策略 > CLI 参数 > 项目 local > 项目共享 > 用户。很多时候被上层覆盖了。

  • “我想一次性关掉所有遥测/上报/自动更新”CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1,一键覆盖四个子开关。

  • “设置文件写哪里?” 用户:~/.claude/settings.json;项目:.claude/settings(.local).json;企业:系统级 managed-settings.json 三平台路径如前。


把 Claude Code 配好,其实就三步:

先定“谁说了算”(层级与策略) → 再定“能干啥”(权限白/黑名单) → 最后定“怎么干”(模型、输出、通知、环境变量)。

配好了,它就像你团队的“AI 开发内功心法”: 更稳、更快、更安全。一套模板,千人千面,落地不费劲。


  • 官方 CLI & 配置:Settings、Model、Terminal、StatusLine、CLI Reference(命令/旗标)
  • 环境变量含义(含一键禁用非必要流量的等价项)

  • 你的团队更需要“严格权限”还是“高速迭代”?怎么在两个目标间做平衡?
  • 你会把哪 3 条配置写进企业策略,强制全员?你觉得呢?

业务高效落地 AI:别再卷 Demo,把业务跑通才是正解

老板兴奋、技术沮丧、业务不愿用。 这不是技术问题,这是组织问题。AI 落地成不成,关键看老板-技术-业务这条“三角链路”能不能闭环。

下面这套文章=实战打法。你可以直接照抄,开干就行。


过去两年,从 bot 到 agent,气氛拉满,但项目却慢半拍。原因往往不是模型不够强,而是组织协作没对齐:老板想讲故事且要三个月见 ROI,技术想多模态+合规+可扩展,业务只认 KPI 和转化。 现实数据也在提醒我们:企业级 ROI 通常要更久,不要指望一口吃成胖子。Forrester 与一线 CIO 的复盘指出,18~24 个月更常见;急于求成反而更容易“烧钱不见效”。 IBM 委托的 2024/25 年度调研也显示,不到一半的企业 AI 项目当年盈利,多数把三年内见到成本节省当作合理预期。

AI 落地不是技术赛,是组织工程。MVP、工作流重构、治理与 KPI 追踪,哪个都不能少。


一、组织先行:把三方拉到同一张桌子

Section titled “一、组织先行:把三方拉到同一张桌子”

老板要做什么?

  • 任命“一把手工程”挂帅,CEO/总经理亲自盯治理与跨部门协同。
  • 明确“三张清单”:投入边界、风险红线、90 天内要看的指标。

McKinsey 的全球调研表明,高层直接负责 AI 治理跟踪明确 KPI,与更高的实际利润改变量显著相关。

技术要做什么?

  • 不摆“工具展”,改打“闭环工具链”:数据→RAG/Agent→埋点→灰度→A/B。
  • 合规与可解释并入流水线,数据血缘/审计随查随有。

业务要做什么?

  • 业务目标要可量化能被 AI 直接影响:AHT、FCR、转化率、处理时长、人天节省。
  • 业务同学参与Prompt 共创。最新研究也强调:提示词质量与模型本身一样重要

二、90 天最小闭环打法(可直接执行)

Section titled “二、90 天最小闭环打法(可直接执行)”

Day 0–7|选场景

  • 只选一个,优先“文字密集、流程标准、量大可计量”的环节:客服答复、知识检索、邮件/合同起草、工单分类。
  • 定基线:例如客服的 AHT、一次解决率、NPS。

Day 8–21|搭底座

  • 数据清洗+权限治理+RAG 索引,先把“能被问到的”整理干净。
  • 三类埋点:质量(准确率/召回)、效率(时长/并发)、效果(转化/节省)。

Day 22–45|做 MVP

  • 小队结构:业务 PO+技术 TL+数据治理+法务/合规+AI Ops
  • 业务与技术共写系统提示与 Few-shot 案例,周迭代两次。
  • 影子模式(Shadow):AI 给建议,人来执行。

Day 46–60|A/B 验证

  • 切 20–30% 流量做对照,盯三项:AHT、一次解决率、满意度
  • 学界在客服场景的随机实验显示:引入生成式 AI 的坐席,人均生产率+14~15%,对新人提升更大。把你的指标体系按这个设计复刻就行。

Day 61–90|灰度放量

  • 达到门槛就进半自动:常规问题 AI 先答,复杂问题人兜底。
  • 建立变更与回滚机制,指标跌破阈值自动降级。

OECD 的 2025 评估强调:要吃到生产率红利,组织、流程、策略必须为 AI 调整,不只是“换个模型”。

现实预期

  • 成本回收看项目复杂度,6–24 个月都合理;过度追求“当季 ROI”,大概率适得其反。

三、六类“快见效”场景清单(附 KPI)

Section titled “三、六类“快见效”场景清单(附 KPI)”
  1. 客服辅助/知识检索
  • KPI:AHT↓、一次解决率↑、NPS↑;
  • 关键:高频问答知识库+RAG、流程模板化、质量抽检;
  • 参考证据:生产率显著提升,新手获益更大。
  1. 销售邮件/方案起草
  • KPI:触达率/回复率/预约率;
  • 关键:CRM 数据→个性化洞察→生成草稿→人工润色。
  1. 合同/法务初稿
  • KPI:起草时长、人均处理量、审签往返次数;
  • 关键:条款库+提示词模板+审批水印;
  • 法务不再只做“刹车”,而是并联在台架上做“护栏”
  1. 财务对账/票据抽取
  • KPI:核对准确率、处理时长、异常召回;
  • 关键:结构化抽取+规则校验+异常工单化。
  1. 供应链/排产问答
  • KPI:计划偏差、缺货率、决策时延;
  • 关键:约束式问答+可解释推理→人审批。
  • 研究表明,LLM 在中长期预测上对决策有帮助。
  1. 内部知识门户
  • KPI:搜索时长、重复提问率、满意度;
  • 关键:权限分级、热区迭代、反馈-再训练闭环。

四、治理与成本:别让“省人”变“烧云”

Section titled “四、治理与成本:别让“省人”变“烧云””
  • 成本盘点三件套:推理费、向量检索/带宽、标注与评测。
  • 算力节流:小模型+缓存+检索裁剪;灰度流量与峰谷调度。
  • 质量/风险双看板:准确率、幻觉率、隐私/版权/IP 事件。
  • 行业观察:企业在 2024 年普遍感到“回报难”,2025 转向“聚焦高价值用例+控成本”。

五、可复制的组织机制(模板就这张)

Section titled “五、可复制的组织机制(模板就这张)”
  • Exec Sponsor(老板):拍板人、资源担保、挡拆路线干扰;
  • AI PMO/转型办:节奏、里程碑、风险清单、经验复用;
  • 业务 PO:KPI 设定、提示词共创、验收;
  • 技术 TL:架构、性能、上线/回滚;
  • 数据治理:权限/血缘/审计/留痕;
  • 法务/合规:AI Act/隐私/版权合规;
  • AI Ops:监控、评测、模型切换。

调研显示:跟踪 KPI、分阶段路线图、设专门团队,与实际 EBIT 改善显著相关。


  • 客服/坐席助理:学界随机实验证明,生产率+14~15%,新人提升尤甚;你的指标设计可以照此复刻。
  • KPMG 税务 Agent(TaxBot):在合规前提下用 RAG 汇聚税法与内部知识,生成 25 页建议草稿大幅提效,但操作权限限定于持证税务师,把风险管住了。

七、十条避坑清单(项目复盘必对勾)

Section titled “七、十条避坑清单(项目复盘必对勾)”
  1. 以 Demo 代替场景 → ❌;以单一 KPI代替价格标签 → ✅
  2. 只谈模型不谈数据 → ❌;先做数据/权限 → ✅
  3. 不埋点不评测 → ❌;A/B+影子模式 → ✅
  4. 追大而全 → ❌;单点闭环 → ✅
  5. 标注“随缘” → ❌;质检任务制 → ✅
  6. Prompt 写给自己看 → ❌;写成产品说明书 → ✅(提示词质量=半个产品)
  7. 法务后置 → ❌;法务并联 → ✅
  8. 预算拍脑袋 → ❌;里程碑拨款 → ✅
  9. 只用“通用 Copilot” → ❌;深耕垂直流程 → ✅
  10. 只谈当季 ROI → ❌;6–24 个月回收期 → ✅

结语|找对“桥梁人”,三角就不难

Section titled “结语|找对“桥梁人”,三角就不难”

AI 落地的关键,是那个能在老板、技术、业务之间“翻译”的人。 有了这座桥,最小闭环就能跑通,数据-提示词-评测-灰度的飞轮就能转起来。 别卷 Demo,卷闭环。 这才是 2025 年公司里最稀缺的竞争力。

还在犹豫 ROI?企业级调查显示:今天大部分公司还在路上,但结构/流程/治理到位,价值就开始落地


  • 你们公司现在的**“权力三角”**是谁在推、谁在拖、谁在躺?
  • 下一个90 天最小场景,你会选哪里?为什么?

Claude Code 最佳实践:原型开发法

先用 Claude Code 快速“跑通原型”,把需求打磨清楚;再回到工程化设计与实现,把质量与稳定性做到位。效率和质量,都要。


做产品最难的,不是写代码。 是把“到底要做啥”讲清楚。

所以我更推荐这套两段式节奏: 第一版只做原型,第二版认真做工程。 Claude Code 很适合这个打法:一边和你在终端里并肩作战,一边把杂活脏活先铺开,再回头精修。


阶段 1:只做原型,追求“跑通”

Section titled “阶段 1:只做原型,追求“跑通””
  • 目标:把功能跑起来,让需求说人话。
  • 不关注:设计、性能、安全、代码质量。
  • 做法:抛弃型代码,完全交给 AI 主导,快速探索可行路径(类似“Spike/Throwaway Prototyping”的思路)。

为什么这样干? 因为很多模糊点,只有跑起来,才会暴露。截图、动图、可点的原型,比十页需求文档有用多了。

Claude Code 在这一步的优势:

  • 直接在本地项目里读、改、跑代码,对话即行动。
  • 可把高频动作做成 Slash Commands,一键复用,比如“起后端 + 假数据 + 本地跑”。

边界提醒:如果你用的是个人订阅版本,近期 Anthropic 有数据用于训练的选择机制,涉及 Claude Code 会话。做公司项目原型前,先确认隐私设置


  • 触发点:需求基本确定,范围(Scope)稳定。
  • 输出物:数据库 Schema、API 协议、状态管理、模块边界、测试策略等。
  • 节奏:人主导,AI 辅助。由你下设计锚点,再让 AI 按图施工。

Claude Code 在这一步的用法:

  • 让它按你的设计搭脚手架、补样板、补测试。
  • 在 PR/Issue 里 @claude 自动出 PR、修小问题(GitHub Actions 集成)。
  • 将工程约定写进 CLAUDE.md / Slash 命令,让 AI 按项目规则执行。

安全/非功能建议:把安全、性能、可运维列为“技术 Enablers”,在二阶段逐步纳入 DoD(完成定义)。必要时先做 Spike 验证。


  • 需求已经被验证过(老功能重做、明确的对标产品)。
  • 风险主要在工程实现而非产品定义。 这时可直接进阶段 2 设计与实现,Claude Code 作为脚手架 + 执行工具上场。

落地手册:我在日常开发里的推荐用法

Section titled “落地手册:我在日常开发里的推荐用法”

下面 4 个常见场景,给到原型 → 工程化的实操清单。

例子 A:增长实验落地页(Next.js)

Section titled “例子 A:增长实验落地页(Next.js)”

原型版(半天搞定)

  • 让 Claude Code 生成最小页面、埋点、表单回传到 /api/echo。
  • 假数据 + 简单 A/B 参数切换先跑起来。
Terminal window
# 原型:生成页面 + 假接口 + 本地起服务
claude "/proto nextjs landing with /api/echo and ab flags; run dev"

工程版

  • 设计 路由与数据模型,约定埋点事件名。
  • 输出 OpenAPI 或协议文档;写 单元/契约测试;接入 CI 上的 Claude Code Action 自动体检与修复。

例子 B:小程序 / BLE 设备数据采集

Section titled “例子 B:小程序 / BLE 设备数据采集”

原型版

  • 优先把扫描 → 连接 → 读数 → 本地缓存跑起来,忽略异常处理。
  • 用 Slash Command 快速复用构建与真机调试指令。

工程版

  • 明确 状态机(连接/断开/重连/超时)。
  • 设计 离线同步协议重放策略;补充 边界测试
  • 把故障注入与恢复做成 /test-ble-reconnect 命令。

例子 C:内部审批系统(Rails/React)

Section titled “例子 C:内部审批系统(Rails/React)”

原型版

  • 只做核心流程:提交、流转、通过/驳回。
  • 用内存或 SQLite,先别上权限。

工程版

  • 设计 RBAC审计日志表结构;写 迁移脚本
  • 速率限制审计导出SLO 报表;Claude Code 在 PR 里自动修小问题和补测试。

例子 D:数据服务(FastAPI + DuckDB)

Section titled “例子 D:数据服务(FastAPI + DuckDB)”

原型版

  • 按场景先出 3 个只读 API,返回静态或半动态数据。
  • 忽略缓存与权限,先让前端能调通。

工程版

  • 定义 分页/排序/过滤协议与 错误码;补鉴权
  • 缓存层限流;将负载基线写成 /bench-api 命令一键压测。

  • 交互式终端 + 命令行,边聊边改文件,适合高频迭代。
  • Slash Commands 把你的“操作剧本”固化下来,团队共享。
  • GitHub Actions 让 @claude 进 PR/Issue,自动补丁、生成 PR、对齐项目规范。

这三件事连起来,就是一条从“想法 → 原型 → 工程化”的快车道。


  • 原型拖太久:超过 1~2 周还没定需求,就拆更小的故事点;必要时做 Spike 小结
  • 原型代码误上产线:分支隔离 + 目录标注 /proto-*,并在 CI 里阻断。
  • 二阶段无边界:写 工程 DoD(含安全与性能),把非功能项列为 技术 Enablers,逐 Sprint 拉完。
  • 隐私合规:公司项目优先用 企业/API 通道;个人订阅务必检查训练数据选择

原型不是偷懒,是加速“把事说清楚”。 工程不是慢,是把“长期成本”降下来。

用 Claude Code,我们可以把这两件事各就各位AI 主导跑原型,人类主导做工程。 今天就把你手头那个犹豫不决的需求,先跑起来

你怎么看?你的团队更卡在原型还是工程?评论区聊聊。

英伟达2026财年第一、第二季度财报综合分析报告:英伟达如何将H20“危机”变为战略“转机”

一、执行摘要:在逆境中强劲反弹,战略远见持续兑现

Section titled “一、执行摘要:在逆境中强劲反弹,战略远见持续兑现”

英伟达2026财年第一和第二季度的财报,共同描绘了一幅在复杂地缘政治环境中,企业如何通过核心技术优势和审慎财务管理,成功应对挑战并持续兑现长期战略的图景。第一季度财报侧重于因美国出口管制政策而导致的短期财务冲击,如H20芯片相关的巨额费用和预期的营收损失。然而,第二季度财报不仅在关键财务指标上超出市场预期,更以其强劲的表现,有力地印证了第一季度所阐述的战略方向与基本面韧性。

本报告的分析显示,表面上第二季度总营收增速有所放缓,但这并非需求疲软的信号,而是高基数效应的体现,且伴随着新一代Blackwell平台的强劲产能爬坡和需求爆发。更为重要的是,公司在第二季度成功地将H20芯片的影响从第一季度的财务“硬伤”转化为战略性应对与“去风险化”的积极范例。第二季度的业绩强力印证了公司核心增长引擎(Blackwell平台)的强劲需求、持续优化毛利率的能力,以及通过大规模资本回报计划所展现出的对未来现金流的高度信心。

二、综合财务业绩对比分析:数字背后的强劲增长与结构性变化

Section titled “二、综合财务业绩对比分析:数字背后的强劲增长与结构性变化”

总览:超预期但增速放缓的第二季度

Section titled “总览:超预期但增速放缓的第二季度”

英伟达在2026财年第二季度实现了令人瞩目的财务表现。总营收达到467.43亿美元,超出了公司在第一季度给出的450亿美元的指引约17亿美元。这一营收数据较上一季度增长6%,相比去年同期更是激增56%。与此同时,净利润也实现了大幅跃升,从第一季度的187.75亿美元增至264.22亿美元,环比增长41%,同比增长高达59%。

然而,值得深入分析的是,尽管第二季度业绩出色,但其56%的同比增速相比第一季度69%的增速有所放缓。部分媒体将此解读为自2023年中期以来最慢的季度增速。这种分析若脱离背景则缺乏全面性。事实上,56%的同比增速在任何行业都堪称非凡,而其增速的“放缓”主要源于其同期基数的不断抬高,是持续高增长的必然结果,并非市场需求开始走弱的信号。

此外,尽管总营收超预期,但财报发布后英伟达股价却出现小幅下跌。这种现象并非偶然,它揭示了公司目前面临的**“超高预期陷阱”**。部分市场分析师此前对英伟达数据中心业务的营收预期更高,尽管该部门实际营收达到411亿美元,但仍略低于约2.4亿美元的最高预期。这表明,市场对英伟达的价值判断已超越了总营收,而是集中在其核心的AI数据中心业务。即使是微小的业绩偏差,也足以引发市场的过度反应,这正是英伟达作为全球AI风向标所必须承受的特殊市场压力。

对两个季度各业务板块营收的细致对比,进一步揭示了英伟达增长的结构性变化。

  • 数据中心业务:该业务依旧是绝对的增长核心。第一季度营收为391亿美元,同比增长73%;第二季度进一步增长至411亿美元,同比增长56%。第二季度,数据中心业务占总营收的比重保持在88%左右,与第一季度基本持平,这凸显了其作为公司增长引擎的绝对主导地位。

  • 游戏业务:与数据中心的强劲表现相得益彰的是,英伟达的传统核心业务——游戏板块,也在第二季度实现了显著复苏。其营收达到43亿美元,环比增长14%,同比增长49%。这一强劲增长的主要驱动力在于Blackwell-powered NVIDIA GeForce RTX™ 5060的推出,该产品迅速成为英伟达有史以来爬坡最快的x60级别GPU。这表明,除了AI芯片之外,公司的传统业务依然具备强大的市场活力。

  • 专业可视化与汽车业务:这两个板块虽然体量较小,但均实现了稳健增长。专业可视化业务营收从第一季度的5.09亿美元增至第二季度的6.01亿美元,环比增长18%。汽车业务营收从第一季度的5.67亿美元增至第二季度的5.86亿美元,同比增长69%。这些增长数据印证了公司在核心AI硬件之外,正通过其全栈平台(如NVIDIA DRIVE™ AV、NVIDIA Omniverse™)在垂直应用领域持续扩张影响力。

表A-1:英伟达2026财年第一、第二季度关键财务指标对比

Section titled “表A-1:英伟达2026财年第一、第二季度关键财务指标对比”
指标 (单位: 百万美元)Q1 FY26 (GAAP)Q1 FY26 (Non-GAAP)Q2 FY26 (GAAP)Q2 FY26 (Non-GAAP)Q/Q 变化 (Non-GAAP)
营收44,06244,06246,74346,7436%
毛利率60.5%61.0%72.4%72.7%11.7 pts
运营费用5,0303,5835,4133,7956%
运营收入21,63823,27528,44030,16530%
净利润18,77519,89426,42225,78330%
摊薄每股收益$0.76$0.81$1.08$1.0530%

注:非GAAP毛利率排除H20相关费用影响,Q1为71.3%,Q2为72.3%。

表A-2:英伟达2026财年第一、第二季度分业务营收对比

Section titled “表A-2:英伟达2026财年第一、第二季度分业务营收对比”
业务板块Q1 FY26 营收 (百万美元)Q2 FY26 营收 (百万美元)Q/Q 变化Y/Y 变化 (Q1)Y/Y 变化 (Q2)
数据中心39,10041,1005%73%56%
游戏未直接提供4,30014%N/A49%
专业可视化50960118%19%32%
汽车与机器人5675863%72%69%

三、财报表述的“差异与冲突”:地缘政治影响的演变与管理

Section titled “三、财报表述的“差异与冲突”:地缘政治影响的演变与管理”

第一季度的直接冲击与财务代价

Section titled “第一季度的直接冲击与财务代价”

英伟达在2026财年第一季度遭遇了自中美芯片出口管制升级以来的首次直接财务冲击。该财报明确披露,受新的出口许可要求影响,公司因需求下降产生了45亿美元的H20芯片相关费用,这笔费用主要源于过剩的库存和采购义务。此外,由于政策限制,公司未能交付价值25亿美元的H20订单。这些负面影响在当季毛利率上得到了直接体现,GAAP毛利率跌至60.5%,非GAAP毛利率为61.0%,均显著低于正常水平。在第一季度财报中,公司对第二季度的营收指引为450亿美元,并特别指出这已反映了因出口管制导致的约80亿美元H20营收损失。

第二季度的战略性应对与“去风险化”

Section titled “第二季度的战略性应对与“去风险化””

第二季度财报的表述看似与第一季度存在冲突,实则反映了公司对地缘政治风险管理策略的演进和成功执行。该季度财报明确指出,“未向中国客户销售任何H20芯片”。这似乎延续了第一季度的困境,然而,财报同时披露了公司通过向中国以外的客户销售不受限制的H20产品,获得了约6.5亿美元的营收,并因此释放了此前计提的1.8亿美元库存准备金。

将这两个季度的财报表述联系起来分析,这并非数据上的矛盾,而是一个从**“被迫承受”到“主动管理”**的清晰过程。第一季度计提的45亿美元费用代表了这批库存和采购义务在当时被视作沉重的财务负担,甚至可能成为“死资产”。然而,在第二季度,公司成功地找到了新的市场渠道,将部分此前被视为难以销售的库存成功变现。这一行动不仅带来了新的营收,更通过冲回部分准备金,对当季的毛利率产生了积极贡献。这表明,英伟达并非被动地承受外部冲击,而是积极调整供应链和销售策略,成功地将不利影响降到最低,并有效盘活了资产。

此外,关于“与美国政府达成15%营收分成协议”的报道,虽然公司首席财务官柯蕾特·克雷斯(Colette Kress)在财报电话会议中明确表示该协议尚未最终敲定,且美国政府尚未发布相关法规,但这一表述本身就暗示了公司在幕后进行了大量的斡旋。与此同时,公司在第二季度对第三季度的展望中,仍**“未假定任何对华H20出货”**。这种在财务预测上的审慎态度,表明公司管理层将该协议可能带来的收益视为潜在利好而非既定事实,避免了因政策变动带来的二次财务风险。

四、第二季度如何“印证”第一季度的战略:从蓝图到现实

Section titled “四、第二季度如何“印证”第一季度的战略:从蓝图到现实”

数据中心业务的长期战略:Blackwell平台的崛起

Section titled “数据中心业务的长期战略:Blackwell平台的崛起”

第一季度财报中,英伟达的CEO黄仁勋明确表达了对新一代Blackwell平台的乐观预期,并称其为“世界期待的AI平台”。这一表述在当时更多是战略性的蓝图与愿景。然而,第二季度财报用具体而强有力的数据,将这一蓝图转变为可验证的现实。

数据显示,英伟达Blackwell数据中心营收在第二季度实现了17%的环比增长。这一显著增长不仅是数字上的成功,更是公司核心技术优势和市场领导地位的直接体现。黄仁勋将Blackwell的需求描述为“非凡”,这直接印证了第一季度对该平台前景的展望。Blackwell平台的强劲产能爬坡和市场需求,正在有效地对冲H20出口限制所带来的营收缺口,成为公司整体增长的新驱动力。

财务稳健性与股东回报承诺:从目标到行动

Section titled “财务稳健性与股东回报承诺:从目标到行动”

英伟达在第一季度财报中,在宣布H20相关费用造成的毛利率大幅下降时,同时提出了一个明确的财务目标:公司正在努力,力争在今年年底将非GAAP毛利率提升至“70%区间中位水平”。第二季度的业绩几乎完美地印证了这一承诺。

通过对数据的深入分析可以发现,第二季度非GAAP毛利率达到72.7%,相比第一季度排除H20费用影响后的71.3%,又有了1个百分点的提升。毛利率的显著回升并非偶然,它由两个关键因素驱动:首先,是前文提到的H20库存释放带来的1.8亿美元准备金冲回,这在短期内对毛利率产生了正面贡献;其次,也是更重要的长期驱动力,是Blackwell等新一代高利润率产品的出货量持续增加。这证明了公司毛利率的短期波动主要源于一次性事件(H20费用),其核心盈利能力和长期优化策略(通过高附加值产品)是稳健且正在持续兑现的。

在股东回报方面,第一季度财报中已透露了公司持续的股票回购和现金分红策略。第二季度,这一承诺得到了前所未有的加强。公司董事会批准了额外600亿美元的股票回购授权。这一“史无前例”的巨额授权是管理层对公司未来基本面和现金流前景高度信心的最直接信号,它印证了公司在第一季度财报中所传递出的财务稳健性,并向市场传递了强烈的看多信号,进一步夯实了公司的财务护城河。

五、展望与风险:面向未来的挑战与机遇

Section titled “五、展望与风险:面向未来的挑战与机遇”

英伟达对2026财年第三季度的指引,进一步巩固了其强劲的增长势头。公司预计营收将达到540亿美元,上下浮动2%,这一指引比第二季度的实际营收高出约73亿美元。同时,GAAP和非GAAP毛利率预计分别为73.3%和73.5%。这一乐观指引有力地证明了Blackwell平台的产能爬坡仍在加速,市场需求依然旺盛,并且公司对其核心盈利能力的持续改善充满信心。

然而,尽管业绩出色,潜在的挑战与风险依然存在。地缘政治的不确定性是其首要风险,出口管制政策的任何变动都可能直接影响未来的营收。此外,来自Groq等新兴AI芯片公司的竞争正在加剧,尽管英伟达目前仍占据绝对领导地位,但其必须持续创新以维持优势。

与此同时,公司也拥有广阔的机遇。通过在AI、机器人、物理AI和数字孪生等新领域的持续布局,英伟达正努力将自身从单一的AI硬件供应商,扩展为一个横跨多个高增长领域的全栈平台提供商。这些战略性举措将为其未来的多元化增长提供坚实的基础。

六、结论:在挑战中前行的AI巨头

Section titled “六、结论:在挑战中前行的AI巨头”

英伟达2026财年第一和第二季度的财报,共同构成了一个在外部冲击下,从财务阵痛到战略反击的完整叙事。第一季度的财报诚实地揭示了地缘政治风险所带来的直接财务成本,而第二季度则以实际行动证明了其强大的管理智慧和业务韧性。

第二季度的业绩有力地印证了第一季度所传递的核心信息:尽管面临短期逆风,但英伟达的长期增长引擎(以Blackwell为代表的数据中心业务)依然动力十足,其财务基本面和对未来的信心都坚如磐石。公司成功地将挑战转化为机遇,通过精细的资产管理和高价值产品的强劲出货,不仅实现了财务指标的显著反弹,更向市场传递了其在复杂环境中依然能够掌控全局、持续领先的清晰信号。英伟达正稳步从一个AI芯片制造商,迈向一个主导AI、机器人和元宇宙未来的全栈计算巨头。

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

2025年Q2财报解析:AI浪潮下财报靓丽的公司

财报季不仅仅是一串数字,它更是一场企业战略与市场情绪的博弈,是理解经济大势和公司的最佳窗口。一个“靓丽的财报”不仅仅是营收或利润超出预期,它必须包含以下几个核心要素:

  • 指标超越度:核心财务指标(营收、每股收益)超出市场预期的幅度。
  • 增长质量:增长是否由可持续的核心业务驱动,而非一次性因素。
  • 盈利能力与效率:考察公司在扩大规模的同时,是否提升了利润率和现金流。
  • 未来指引与管理层信心:管理层对未来业绩的展望,上调指引通常是信心的最强信号。
  • 战略执行力:财报数据是否验证了公司长期战略的有效性。

我们将依次深入剖析AI浪潮下10家公司的财报,揭示数据背后的逻辑和商业真相。

一、逐一盘点:12家公司2025年Q2财报深度解析

Section titled “一、逐一盘点:12家公司2025年Q2财报深度解析”

本部分将对每一家公司进行详尽的财务与战略分析,并嵌入所有相关的研究素材,进行事实核查与批判性解读。

1.1 Palantir(PLTR):从政府服务到商业化引擎的成功转型

Section titled “1.1 Palantir(PLTR):从政府服务到商业化引擎的成功转型”

Palantir的Q2财报无疑是本季度的明星。公司营收达到了10.04亿美元,远超市场预期的9.4亿美元,同比增长高达48%。更令人瞩目的是其盈利能力的显著飞跃,GAAP净利润为3.27亿美元,调整后每股收益(Adj. EPS)为0.16美元,也远超预期的0.139美元。

这些亮眼数字的核心驱动力,是其美国商业部门的爆发性增长。该部门营收同比增长93%,环比增长20%,成为公司增长的最强引擎。这一成绩完美地印证了公司从历史依赖政府合同,向商业化转型的成功。商业客户的增长提供了更可预测的收入流和长期的战略合作关系,这从高达22.7亿美元的新增合同总价值(TCV)中可见一斑,同比增长达140%。

然而,在数据的光鲜背后,也存在需要冷静分析的潜在风险。尽管政府业务仍有36%的稳健增长,但多家媒体指出,美国国防部已开始将价值高达2亿美元的合同授予OpenAI、Anthropic等新兴竞争对手。这表明,政府的AI采购正从单一供应商模式转向多元化。这虽然不会立即影响Palantir的业绩,但可能对其长期稳定的政府收入构成新的挑战。

展望未来,管理层表现出极高信心,上调了Q3营收指引(同比增长50%)和全年营收指引(同比增长45%)。这种坚定的态度是其财报最值得称道的部分。然而,我们也必须意识到,高达663倍的市盈率(TTM P/E)和252倍的前瞻市盈率(Forward P/E)意味着市场已将这种高增长几乎全部计入股价。这种高估值需要公司持续拿出超出预期的表现来支撑。

1.2 Microsoft(MSFT):AI时代的“公用事业”巨头

Section titled “1.2 Microsoft(MSFT):AI时代的“公用事业”巨头”

微软本季度的财报同样令人惊叹。其日历Q2(即财年Q4)营收达到764亿美元,同比增长18%,超出分析师预期的13.9%。稀释后每股收益(EPS)为3.65美元,同比增长24%,超出预期的3.35美元。

这份财报最核心的亮点是其“云+AI”战略的全面胜利。作为公司增长引擎的Azure云服务,营收同比增长高达39%。这不仅是简单的财务数字,它代表了微软商业模式的根本性转变。该公司不再仅仅是提供软件,而是正在成为全球企业不可或缺的AI算力与数据基础设施提供商。为了满足AI的巨大需求,微软在2025财年承诺投入800亿美元用于数据中心建设。这笔巨额资本开支并非简单的费用,而是公司对未来增长的战略性押注,旨在解决“需求大于供给”的瓶颈,并进一步巩固其在AI时代的领导地位。

从战略角度看,这份财报证明了微软已成功从一个传统的软件巨头,转变为一个拥有“AI基础设施公用事业”属性的公司。这种深度嵌入全球经济数字化动脉的商业模式,使其能够持续获得市场的信任和高估值。管理层对未来的展望也极为乐观,预测2026财年Q1的智能云业务营收将继续高速增长,增幅预计高达37%。

1.3 Astera Labs(ALAB):AI浪潮下的“卖铲人”与隐忧

Section titled “1.3 Astera Labs(ALAB):AI浪潮下的“卖铲人”与隐忧”

Astera Labs的财报数据堪称“惊艳”。公司营收达到1.919亿美元,同比增长150%,环比增长20%。更重要的是,公司首次实现了GAAP运营利润3980万美元和净利润5120万美元,标志着其商业模式从高速扩张转向健康盈利。作为数据中心互联芯片的供应商,Astera Labs的业绩直接受益于大型超大规模云服务商对AI计算基础设施的资本开支加速。

然而,在这些完美数据背后,我们必须看到其业务模式的固有脆弱性。多家信源都明确指出,公司的最大风险在于“客户集中度”,即其业务高度依赖于“少数几家大型超大规模客户”。尽管当下增长迅猛,但从商业逻辑来看,任何一家大客户都力图避免对单一供应商的过度依赖。一旦这些客户的采购策略发生变化,或自行研发替代产品,都可能对Astera Labs的业务构成重大威胁。因此,尽管财报数据完美,但这种“寡头依赖”的风险是投资者需要警惕的。

1.4 Meta(META):用广告帝国的现金流押注AI未来

Section titled “1.4 Meta(META):用广告帝国的现金流押注AI未来”

Meta的Q2财报显示,其核心广告业务在AI的驱动下依然充满活力。营收达到475.2亿美元,同比增长22%,每股收益(EPS)为7.14美元,同比增长38%。这一增长主要归功于广告展示量和平均广告价格的双重提升,这背后正是其AI算法在精准投放和用户推荐上的持续优化。

这份财报最引人注目的并非核心业务的强劲,而是它所揭示的公司战略。财报清晰地将公司分为两大板块:营收高达471.46亿美元的“应用家族”(Family of Apps)和仅有3.7亿美元营收的“现实实验室”(Reality Labs)。应用家族是公司的“现金奶牛”,它产生了足够的现金流,支撑公司在AI和元宇宙领域的巨额投资。公司预计2025年资本开支将达到660亿至720亿美元,主要用于AI基础设施建设。从商业逻辑来看,这种投资是高风险的,但也是其赢得未来的必要代价。这份财报的完美之处在于,它用实际数据证明了“现金奶牛”依然健康,这让管理层在追求宏大愿景时拥有了更大的战略自由。

1.5 Nebius AI(NBIS):AI基础设施赛道上的黑马

Section titled “1.5 Nebius AI(NBIS):AI基础设施赛道上的黑马”

作为一家在AI基础设施领域迅速崛起的公司,Nebius AI在Q2交出了一份令人瞠目结舌的财报。其营收达到了1.051亿美元,同比爆炸式增长625%,环比增长106%。此外,其核心业务提前实现了调整后的EBITDA为正,这证明了其商业模式的健康和高效率。

Nebius的成功并非偶然。作为一家提供从GPU算力、云平台到开发者工具的“全栈”服务的公司,其垂直整合模式使其能够快速响应市场对AI算力的巨大需求。公司正在积极获取超过1GW的电力供应以支持未来的数据中心扩张,表明其管理层对未来增长的预期非常激进。值得注意的是,Nebius Group N.V.的前身是Yandex N.V.,并于2024年8月更名。这个历史背景是理解其技术积累和商业模式的关键。

1.6 Robinhood(HOOD):从“网红”到金融平台的重生

Section titled “1.6 Robinhood(HOOD):从“网红”到金融平台的重生”

Robinhood的Q2财报证明,它已不再是那个单纯依赖短期市场情绪的“meme股”交易应用。公司营收达到9.89亿美元,同比增长45%,净利润为3.86亿美元,同比增长105%。

这些数据背后是其业务模式的成功转型。公司不再依赖单一的交易收入,其交易收入(期权、加密货币、股票)同比增长65%,而净利息收入也稳健增长了25%。此外,其付费客户(Robinhood Gold subscribers)增长76%至350万,总资产(AUM)达到2790亿美元,同比增长99%。这些数据都表明,Robinhood正在成功向一个拥有多元化、可持续收入来源的综合金融服务平台转型。

这份财报最完美的之处在于,它用数据证明了公司正在从一个“工具”转变为一个“平台”。这种战略的成功源于公司对用户需求的深刻洞察:年轻一代投资者需要的不仅仅是一个简单的交易工具,而是一个能满足其全方位金融需求的“一站式”平台。

1.7 Iren(IREN):大胆的战略转型与超高速增长

Section titled “1.7 Iren(IREN):大胆的战略转型与超高速增长”

Iren本季度的财报(指其财年Q4)是一份充满戏剧性的答卷。尽管提供的资料存在时间上的混淆(财年Q2和财年Q4),但最新数据(财年Q4,2025年8月公布)显示,其营收高达1.873亿美元,同比增长228%,净利润为1.769亿美元,成功实现了扭亏为盈。

Iren的完美财报源于其大胆而成功的战略转型。公司不再局限于比特币挖矿,而是成功利用其电力、基础设施优势,将业务扩展到高增长的AI数据中心领域。成为NVIDIA的“优选合作伙伴”,并获得其Blackwell GPU,为其AI业务的快速扩张提供了强大的技术和硬件支持。这种转型使其从一个受比特币价格高度波动的行业,转向一个更稳定、需求更强劲的领域。从商业逻辑看,Iren的旧业务(比特币挖矿)和新业务(AI数据中心)的核心资产都是“电力”和“大规模数据中心基础设施”,财报用数据证明了公司能够将这一核心资产平滑地转向AI算力服务,是一种对核心资源的战略性重新配置。

1.8 SoFi(SOFI):金融服务“飞轮”的完美验证

Section titled “1.8 SoFi(SOFI):金融服务“飞轮”的完美验证”

SoFi在Q2财报中交出了一份完美的答卷。公司营收达到8.55亿美元,同比增长43%。更重要的是,公司实现了连续第七个季度的GAAP盈利,净利润为9730万美元,同比暴增459%。

这份财报最核心的亮点是其独特的“金融服务生产力飞轮”(FSPL)战略得到了完美验证。公司会员数和产品数均同比增长34%。其中,35%的新产品由现有会员开通,这有力地证明了其“一站式商店”模式的有效性。通过提供全方位的金融产品(存款、贷款、投资等),SoFi有效提升了单个客户的价值(ARPU)和产品渗透率。费用收入(Fee-based Revenue)的暴增(同比增长72%)也提升了公司的收入质量,降低了其对利息收入的依赖。管理层对未来的展望同样充满信心,上调了2025年全年财务指引。

1.9 Axon(AXON):从“硬件销售”到“SaaS订阅”的华丽转身

Section titled “1.9 Axon(AXON):从“硬件销售”到“SaaS订阅”的华丽转身”

Axon的财报完美地诠释了“护城河”的构建逻辑。公司营收达到6.69亿美元,同比增长33%,这已是连续第六个季度增长超过30%。这份财报最亮眼的数字,是其年化经常性收入(ARR)同比增长39%至12亿美元,以及高达107亿美元的未来合同预订额。这个天文数字意味着公司在未来十年内有稳定、可预测的收入来源,这种确定性是极少数公司能够提供的,也正是其高估值的核心依据。

财报数据表明,Axon的真正价值并非来自电击枪或摄像头这些硬件销售,而是基于这些硬件构建的数字证据管理、VR训练等软件生态系统。这种“硬件为入口,软件为核心”的商业模式,使得客户(主要是执法机构)一旦进入其生态,就会产生极高的转换成本和持续的、可预测的订阅收入。公司上调了2025年全年营收和调整后EBITDA指引,进一步验证了其强大的战略执行力。

1.10 TransMedics(TMDX):医疗垂直领域的“全栈服务”构建者

Section titled “1.10 TransMedics(TMDX):医疗垂直领域的“全栈服务”构建者”

TransMedics的Q2财报表现稳健且出色。公司营收达到1.574亿美元,同比增长38%。公司实现了净利润3490万美元,同比增长186%。其增长主要源于其独有的器官护理系统(OCS)和国家OCS计划(NOP)的利用率增加。

TransMedics的完美财报源于其“产品+服务”的独特商业模式。它不仅仅是销售一个医疗设备,而是提供一套完整的、从器官护理到物流运输的“端到端”解决方案。其服务收入同比增长43.9%,这部分收入的强劲增长证明了公司在通过其航空机队等服务来构建生态系统,从而形成一个高毛利率、高粘性的商业飞轮。这种对核心需求(器官运输和护理)的“全栈”覆盖,使其在市场中几乎没有直接竞争对手,也为公司带来了长期价值。管理层上调了2025年全年营收指引,显示出对未来的坚定信心。

1.11 MongoDB(MDB):云数据库巨头的成长性与盈利之战

Section titled “1.11 MongoDB(MDB):云数据库巨头的成长性与盈利之战”

MongoDB在Q2财报中实现了营收和非GAAP盈利的双重超预期。营收为5.914亿美元,同比增长23.7%,超出预期;调整后每股收益(EPS)为1美元,也远超预期的0.67美元。其云数据库服务Atlas是核心驱动,贡献了总营收的74%,同比增长29%。

然而,尽管非GAAP数据亮眼,但财报指出,GAAP运营亏损为7140万美元。多家信源也强调,实现持续盈利(GAAP Net Income)仍然是其“长期挑战”。从商业逻辑来看,MongoDB处于“成长性”与“盈利性”的永恒博弈中。公司正通过烧钱扩张,以抢占云数据库市场的巨大潜力。投资者此刻更看重其在AI和云数据库市场的巨大潜力,而非当下的盈利性。这种战略选择是理性的,但这也意味着,如果增长速度放缓,市场对其盈利能力的审视会变得更加严苛。

1.12 Shopify(SHOP):全球电商基础设施的稳步扩张

Section titled “1.12 Shopify(SHOP):全球电商基础设施的稳步扩张”

Shopify的Q2财报稳健且持续。公司营收同比增长31%,自由现金流利润率连续八个季度保持双位数,财务状况极为健康。这份财报最值得称道的细节是其全球化战略的成功。财报强调,北美、欧洲、亚太地区的商品成交总额(GMV)增速环比加快,其中欧洲地区的增速高达42%。这说明公司并未躺在北美市场的功劳簿上,而是在积极进行地理多元化,这不仅为未来增长打开了新空间,也降低了单一市场风险。

公司强调,从初创企业到全球品牌,各类商家都选择Shopify来发展业务。这表明其平台对不同规模客户的吸引力持续增强。展望Q3,公司预计营收将同比增长中高二十位数百分比,这种稳健且持续的增长,使其在电商领域继续保持领先地位,市场对其前景持乐观态度。

二、排行榜:2025年Q2财报的“十全十美”公司

Section titled “二、排行榜:2025年Q2财报的“十全十美”公司”

基于前述的深度分析,我们将采用“完美财报”评判标准(指标超越度、增长质量、盈利能力、未来指引、战略执行力)对12家公司进行综合评分,并选出表现最佳的10家。

  1. Palantir (PLTR):营收和利润双双大超预期,特别是美国商业业务的爆发性增长,证明了其核心战略转型的成功。GAAP盈利和高额合同预订额提供了坚实的财务基础。尽管估值高昂,但完美的财报数据为这种高估值提供了强有力的基本面支撑。
  2. SoFi (SOFI):连续第七个季度实现GAAP盈利,业务模式被完美验证,特别是会员和产品数的交叉增长,显示出极强的客户粘性。营收加速增长和上调的指引表明其“金融服务生产力飞轮”正在加速。
  3. Axon (AXON):连续第六个季度保持30%+的营收增长,其SaaS化转型和软件业务的强劲表现使其业务质量极高。高达107亿美元的未来合同预订额提供了无与伦比的长期增长可见度,这是其最突出的优势。
  4. Iren (IREN):尽管财报时间存在混淆,但其战略性地从比特币挖矿向AI数据中心转型,并实现营收和净利润的爆发性增长,使其成为Q2最引人注目的“黑马”。与NVIDIA的合作和对AI算力基础设施的押注,使其拥有巨大的增长潜力。
  5. Microsoft (MSFT):财报表现全面超出预期,尤其是在AI领域的营收增长和对Azure的巨额投资,显示出其强大的战略执行力。作为AI基础设施的领导者,其增长质量极高,且市场对其未来充满了确定性。
  6. Shopify (SHOP):财报显示营收强劲增长,且连续八个季度实现双位数自由现金流,财务状况极为健康。全球GMV的加速增长,特别是欧洲市场的出色表现,验证了其全球化战略的成功。
  7. Meta (META):核心广告业务在AI驱动下表现出色,运营效率提升,为公司提供了充足的现金流。虽然Reality Labs仍处于亏损状态,但核心业务的强劲表现和对未来AI的巨额投资,使得其战略前景清晰且充满想象力。
  8. Astera Labs (ALAB):营收同比增长150%,且首次实现GAAP盈利,数据非常亮眼。作为AI基础设施的“卖铲人”,其业务处于高景气赛道。
  9. MongoDB (MDB):营收和非GAAP盈利均超出预期,云服务Atlas表现强劲,客户持续增加。公司上调全年指引,表明其对未来增长的信心。
  10. TransMedics (TMDX):营收同比增长38%,实现了盈利,并上调了全年指引。其独特的“产品+服务”模式在医疗器械市场构建了深厚护城河,增长质量高且可持续。
公司名称营收同比增速 (%)EPS (美金)是否超预期净利润/自由现金流表现未来指引 (是否上调)战略执行力评判总分
Palantir (PLTR)48%$0.16GAAP净利润$3.27亿,Adj. FCF $5.69亿极高9.9
SoFi (SOFI)43%$0.08连续第七季GAAP盈利,净利润暴增459%极高9.8
Axon (AXON)33%未披露未披露净利润$3600万极高9.7
Iren (IREN)228%未披露净利润$1.769亿,成功扭亏为盈未披露极高9.6
Microsoft (MSFT)18%$3.65净利润$272亿极高9.5
Shopify (SHOP)31%未披露未披露连续八季FCF利润率双位数9.4
Meta (META)22%$7.14净收入$183.4亿,FCF $85.5亿9.3
Astera Labs (ALAB)150%$0.29未披露首次实现GAAP净利润$5120万9.0
MongoDB (MDB)23.7%$1.00非GAAP盈利,GAAP仍亏损8.9
TransMedics (TMDX)38%$0.92未披露净利润$3490万8.8

2.3 遗珠之憾:为何我的持有股$PLTR进入十强?

Section titled “2.3 遗珠之憾:为何我的持有股$PLTR进入十强?”

用户在查询中特意提到了其持有的Palantir(PLTR),并询问其是否在最完美的财报榜单中。我的分析和排名已经清晰地回答了这个问题。

Palantir不仅在榜单之内,而且位列第一。 为什么?因为它的财报不仅仅是数字上的超越,更是一次商业模式的成功验证。财报前,市场对PLTR的印象依然停留在“神秘的政府服务公司”,增长瓶颈和估值过高是主要争议。然而,这份财报用数据证明了其美国商业业务的爆发性增长,特别是AI平台(AIP)的强劲需求,成功地改变了这种市场认知。这种从一个高风险、依赖单一客户的“神秘”公司,转变为一个拥有广阔市场、可复制的AI软件平台公司,是公司价值的根本性转变。

尽管其估值高昂,但高估值本身就是对这种完美战略执行力的认可。它代表了市场对公司未来增长潜力的集体信任。因此,从一个专业的分析角度看,这份财报堪称本季度“最完美”的典范。

3.1 宏观趋势:Q2财报季揭示的经济信号

Section titled “3.1 宏观趋势:Q2财报季揭示的经济信号”

本季度财报的核心主题是 “AI”,它已从概念变为实实在在的收入和利润驱动力。无论是Palantir、Microsoft、Astera Labs还是Iren,其业绩的爆发都与AI基础设施建设和应用密不可分。这表明,全球数字经济的底层架构正在经历一次大规模的升级,而那些处于AI供应链核心位置的公司,正享受着前所未有的增长红利。

此外,垂直领域的 “全栈服务” 模式正在成为新的护城河。Axon、TransMedics、SoFi等公司不再仅仅提供单一产品,而是通过提供完整的解决方案来锁定客户。这种模式使得客户一旦进入其生态,就会产生极高的转换成本和持续的、可预测的收入,从而构建起强大的竞争壁垒。

面对这份财报榜单,普通投资者需要学会看穿数据的表象,理解其背后的商业逻辑:

  • 警惕估值,但更要看增长质量:面对动辄数百倍市盈率的高估值,不要仅凭数字就判断其好坏。要深入分析其增长驱动力是否可持续,是否正在构建不可复制的商业模式。一个有质量、有护城河的高增长,比一个低估值但增长停滞的公司更有价值。
  • 关注战略转型:那些敢于并成功执行战略转型的公司(如PLTR、HOOD、IREN)通常能带来超额回报,因为它们改变了市场对自身的固有认知,打开了全新的增长空间。
  • 投资不是一锤子买卖,而是长期陪伴:财报季是了解公司“人性”的最佳时机。要观察管理层如何面对挑战,如何进行战略投资,并判断你是否认同他们的长期愿景。如果你能认同公司的长期愿景,那么短期股价的波动就不会动摇你的信心。

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

用 CC-Switch 一键切换 Claude Code & Codex 供应商

TL;DR 想在 Claude CodeCodex 之间快速切换 DeepSeek / Qwen Coder / GLM / Kimi K2 / packycode 等不同供应商?CC-Switch 是一个基于 Tauri 2.0 的极轻桌面应用(安装包约 5MB),支持一键切换、导入当前配置为默认、官方登录回切、自动备份等。新版 v3.1.0 已支持 Codex 供应商管理与一键切换。

引言:为啥你需要“供应商一键切换器”?

Section titled “引言:为啥你需要“供应商一键切换器”?”

每天写代码的我们,有时候更像是成本与速度的调度员。 今天为了速度用 Qwen Coder,明天为了复杂推理换 DeepSeek v3.1,遇到兼容性问题再切回 Claude 官方登录。如果还要到处改 ~/.claude~/.codex 配置,既烦又容易出错

CC-Switch 把这件事做成了一个开关: 点一下,供应商就切了。 配置副本自动管理、回滚不怕、官方登录随时回


  • 真·轻量:基于 Tauri 2.0秒开应用,官方实践也强调了 Tauri 的极小体积路线(比起 Electron 更克制)。 CC-Switch 在 v3.0.0 中从 Electron 迁到 Tauri 2.0,作者实测体积从 ~80MB 降到 ~12MB启动提速 10x

  • 同时支持 Claude Code 与 Codex

    • Claude Code 主配置:~/.claude/settings.json(或旧版 claude.json) 官方文档也确认 ~/.claude/settings.json 是标准入口。
    • Codex 主配置:~/.codex/auth.json(必需) + ~/.codex/config.toml(可为空) Codex README 亦提到 ~/.codex/config.toml 是配置中心,支持 MCP 等。
  • 一键切换 & 自动备份: 切换会把选中的供应商副本覆盖到主配置;若当前有“正在使用”的供应商,还会先把主配置回写到该供应商副本,方便回滚。内部配置 v1→v2 迁移也会在 ~/.cc-switch/时间戳备份

  • 预设即用:DeepSeek v3.1、Qwen Coder、GLM、Kimi K2、packycode… 只填 key 就能一键配置

  • 官方登录随时回: 想用 Claude 或 Codex 的官方登录?添加预设“官方登录”项,切换后重启终端即可 /login 或在 Codex 侧“Sign in with ChatGPT”。

  • 隐私友好: 所有信息仅存本地 ~/.cc-switch/config.json


Windows / macOS / Linux 全平台覆盖:

  • Windows:从 Releases 下载 CC-Switch-Setup.msiWindows-Portable.zip
  • macOS:下载 CC-Switch-macOS.zip,首次因“未知开发者”提示,去“系统设置 → 隐私与安全性 → 仍要打开”即可。
  • Linux:下载 .deb 安装包。

小提醒:作者没有苹果开发者账号,第一次打开会被拦,按上面的路径放行就行。


  1. 添加供应商 点击“添加供应商”,选择预设或自定义,填好 API Key。 (Codex 使用 API Key 时,OPENAI_API_KEY 常见;若你走官方账号登录,就切到“Codex 官方登录”。)

  2. 一键切换 在列表里勾选想用的供应商,点单选按钮。CC-Switch 自动把副本覆盖到主配置

  • Codex:覆盖 ~/.codex/auth.json~/.codex/config.toml(若无会生成空的 config.toml)。
  • Claude Code:覆盖 ~/.claude/settings.json(或旧版 claude.json)。
  1. 重启/新开终端 新开一个终端 Tab 或重启终端,让 CLI 读取到最新配置;Claude Code 官方也建议用 /login 登录官方账号时重启流程更干净。

我推荐的 3 种使用方式(实战向)

Section titled “我推荐的 3 种使用方式(实战向)”

DeepSeek v3.1 设为默认,遇到前端重构或大文件分析时一键切到 Qwen Coder,再需要复杂推理时切回 DeepSeek。全程无需手改配置

你已有在用的 CodexClaude Code 配置?CC-Switch 会把当前主配置自动导入为 default 供应商副本,以后换来换去都有“老家”可回。

调试出问题或配额吃紧时,一键切回 Claude 官方登录Codex Sign in with ChatGPT少走弯路,先把事搞定


  • Codex 的配置文件 社区实践以 ~/.codex/config.toml 为主,但也有人提到历史版本/安装方式导致文件名或存在性不一(如只见到 config.json)。CC-Switch 在切换时会兜底创建空的 config.toml,确保一致性。

  • Claude Code 的官方路径 官方文档明确:用户级配置就是 ~/.claude/settings.json。如果你的老环境还有 claude.json,CC-Switch 也会兼容

  • 隐私与安全 CC-Switch 只改本地文件,不传服务器;需要团队共享时,请自己用 Git 管理项目内的 .claude/settings.json 等(Claude Code 官方也支持项目级 settings)。


  • 市面也有 命令行工具 做供应商切换,但 CC-Switch 的**图形化与“副本策略”**更直观、更稳。
  • 如果你追求极简、可视化、一键回切官方登录,它是更合适的“常驻小工具”。(可与 CLI/脚本互补。) (参考:社区也有类似管理工具与文章,但 CC-Switch 更聚焦“GUI + 双生态”。)

Q1:切换出错能回滚吗? 可以。当前“正在使用”的主配置先被备份回供应商副本,你随时可以切回那个供应商。

Q2:Codex 一直提示登录或配置无效? 优先尝试 “Codex 官方登录”(Sign in with ChatGPT),或者确认 OPENAI_API_KEYOPENAI_BASE_URL 写在 auth.json/config.toml 的正确位置。

Q3:为什么体积这么小、启动这么快? 因为 Tauri 只打包必要的原生壳与前端资源,官方指南也强调优化体积的思路。迁移到 Tauri 2.0 后,作者给出的对比数据非常可观。


把“切换供应商”变成一次点击,你就能把注意力放在真正重要的事上:写对的代码,做对的决策。 对于跨模型协作的人来说,CC-Switch 就像是你桌面上的模式档位杆——顺手、可靠、够快。 去试试它的 v3.1.0,把你的多供应商工作流飞起来。

英伟达 2026 财年第二季度财报电话会议:万亿美元AI叙事下的电力瓶颈与地缘政治博弈

引言:工业革命的序曲与巨头的话语权博弈

Section titled “引言:工业革命的序曲与巨头的话语权博弈”

在持续狂飙突进的人工智能浪潮中,英伟达(NVIDIA)不仅以其GPU硬件成为了算力基础设施的“新石油”,更通过其创始人黄仁勋的每一次公开讲话,持续构建着一场关于“新工业革命”的宏大叙事。

本报告基于英伟达 2026 财年第二季度(截至 2025 年 7 月 27 日)的财报电话会议内容,旨在超越表面的财务数字和技术亮点,运用事实核查、逻辑分析与批判性思维,深入探究其宏大愿景背后的现实制约、地缘政治风险以及各方利益的微妙博弈。报告将逐一解构会议中的核心要点,力求为读者呈现一个多维、立体且充满洞见的真实图景。

本分析将首先梳理英伟达的核心财务数据与业务亮点,并将其与第三方专业机构的预测进行比对,以识别任何可能存在的夸大或误导。其次,报告将深入剖析公司所宣称的技术突破,特别是“每瓦 Token 产出效率”的提升,揭示其背后所蕴含的复杂商业策略。最后,报告将对中美地缘政治博弈在财报会议中的具体体现进行严谨分析,特别是针对 H20 芯片销售的“15% 收入分成”模式,探讨其对未来全球科技贸易的深远影响。

第一章:事实的解构:财报数据与核心公告的逐项梳理

Section titled “第一章:事实的解构:财报数据与核心公告的逐项梳理”

1.1 财务业绩总览:表面下的暗流

Section titled “1.1 财务业绩总览:表面下的暗流”

英伟达在 2026 财年第二季度再次交出了一份超预期的财务答卷。公司总营收达到创纪录的 467 亿美元,这一数字不仅高于公司自身此前给出的 441 亿至 459 亿美元的展望,也超出了分析师普遍预期的 458 亿美元 。营收环比增长 6%,同比增长高达 56% 。

在盈利方面,公司的 GAAP 净利润约为 264 亿美元,同比大幅增长 59% 。然而,在亮眼的数字背后,存在一些值得深入审视的细节。非 GAAP 毛利率为 72.7%,高于展望 。但公司财务高管 Colette Kress 在会议中明确指出,这一毛利率受到了来自先前为 H20 芯片计提的存货准备中,1.8 亿美元的一次性释放影响 。若剔除该项正面影响,本季度的非 GAAP 毛利率将为 72.3% 。这一细节表明,公司在公布财报时对数据的呈现进行了“优化”,通过一次性利好来提升关键指标,从而向市场传递更强的业绩信号。尽管如此,这一调整后的毛利率依然处于公司长期预期的 70% 中段水平。

展望未来,英伟达对第三季度的营收指引高达 540 亿美元(上下浮动 2%),这预示着超过 70 亿美元的环比增长,再次大幅超越华尔街的预期 。毛利率指引也维持在 73.5%(非 GAAP),显示了公司对未来盈利能力的强大信心 。

1.2 数据中心业务:Blackwell 的全面崛起与 Hopper 的韧性

Section titled “1.2 数据中心业务:Blackwell 的全面崛起与 Hopper 的韧性”

英伟达的数据中心业务依然是其核心增长引擎。本季度该业务营收达到 411 亿美元,环比增长 5%,同比增长 56% 。其中,全新的 Blackwell 平台表现强劲,实现了 17% 的环比增长 。根据分析,Blackwell 在本季度贡献了约 270 亿美元的销售额 。公司首席财务官 Colette Kress 透露,面向云服务商、新一代“新型云”、企业以及主权客户的全栈 AI 解决方案正在共同驱动增长。目前,GB300 已进入全面量产阶段,每周生产约 1,000 个机架,预计在第三季度将进一步加速 。

值得注意的是,尽管 Blackwell 平台正在迅速爬坡并成为新的收入主力,上一代 Hopper 平台(包括 H100 和 H200)的需求却并未被完全侵蚀,反而出现了环比增长 。这表明市场对英伟达 GPU 的需求是分层且多元的。并非所有客户都需要或能承担最前沿的 Blackwell,部分客户出于成本效益、现有基础设施兼容性或特定工作负载的考量,仍在大规模采购 Hopper 系列产品。这反映出英伟达产品线的深度和广度,以及其在不同市场层级中强大的渗透能力。

1.3 关键技术突破:何为“每瓦 Token 产出效率”的十倍提升?

Section titled “1.3 关键技术突破:何为“每瓦 Token 产出效率”的十倍提升?”

在会议中,管理层反复强调了 Blackwell 平台在技术上的跨代式飞跃,特别是其在“每瓦 Token 产出效率”上的显著提升。据称,GB300/NVL72 平台相较上一代 Hopper 平台,能够实现高达 10 倍的能效提升 。这一惊人数字背后,是英伟达对其全栈解决方案的巧妙整合。

这种性能的提升并非仅仅来自单一的芯片硬件性能,而是多项技术协同作用的结果。首先,Blackwell 平台采用了全新的 NVLink 72 纵向扩展交换机,将整个机架(rack)作为一台统一的计算机来运行,而非仅仅是节点(node)级别的连接。其次,英伟达引入了专为推理与训练优化的新型精度格式 NVFP4(4 比特精度)。该技术在提供可媲美 16 比特精度的准确性的同时,其速度与能效却达到了 4 比特水平,从而实现了高达 7 倍的训练提速 。

这一技术叙事的精妙之处在于,它将“系统优化”和“软件创新”的成果,转化为直观的“硬件性能提升”。英伟达的真正核心壁垒并非仅仅在于制造芯片,而在于其全栈协同设计——从硬件架构、高速网络、到软件生态(如 CUDA, TensorRT-LLM)的全面整合。这种设计使英伟达能够将技术优势直接转化为客户的经济利益。在电力供应日益紧张的背景下,数据中心运营者对“每瓦性能”的关注度空前提高 。英伟达通过提高能效,使得客户能够在有限的电力预算下,创造出更多可变现的 Token 收入,这正是其对市场需求痛点的深刻理解和回应。

1.4 地缘政治迷雾:中国市场与 H20 芯片的现实困境

Section titled “1.4 地缘政治迷雾:中国市场与 H20 芯片的现实困境”

地缘政治对英伟达业绩的影响在本季度财报中体现得尤为明显。Colette Kress 证实,由于持续的出口管制审查,英伟达在第二季度没有向中国客户发运任何 H20 芯片,且第三季度的财务展望也未包含这部分收入 。然而,公司已获得部分中国客户的许可证,并预计在第三季度有望发运 20 亿至 50 亿美元的 H20 。

一个令人震惊的细节浮出水面:公司透露,美国政府官员表达了从获得许可的 H20 销售所产生的营收中获取 15% 份额的预期 。多家第三方媒体报道证实,这是一种“高度不寻常”且可能存在法律争议的安排 。这并非传统的税收,而更像是一种政府以发放出口许可为条件,向私人企业征收的“合伙人利润分成”。这一做法突破了传统的贸易规则和法律框架,为未来的政府与企业合作开创了一个危险的先例 。

这一事件深刻揭示了国家利益与商业利益之间的矛盾与博弈。美国政府希望通过出口管制来维护国家安全与技术领先地位,同时又希望从有限的对华销售中获利。而英伟达则在夹缝中求生存,既要遵守规则,又要尽量争取中国这个全球第二大计算市场(占全球约 50% 的 AI 研究人员)的份额 。黄仁勋在会议中反复强调,允许美国科技公司服务中国市场至关重要,因为这有助于确保美国技术栈成为全球标准,从而维护美国的行业领导力 。

1.5 营收来源的微观洞察:新加坡的秘密与 Hopper 的韧性

Section titled “1.5 营收来源的微观洞察:新加坡的秘密与 Hopper 的韧性”

财报中还包含了一个看似平淡但极具分析价值的数据点:本季度来自新加坡的开票收入占比高达 22% 。然而,公司紧接着澄清,这些开票收入中超过 99% 的最终客户是美国本土客户 。这一数据澄清了市场对“英伟达是否通过新加坡向中国转运芯片”的潜在猜测,同时也揭示了全球贸易与财务结算的复杂性。许多跨国公司出于税收或运营效率的考量,会选择在新加坡等国际金融中心集中开票与结算。该数据提醒分析者,在审视国际公司的财报时,必须深入探究其背后的业务模式,而非仅停留在表面的地域数据上。

此外,公司还披露向中国以外的一位“不受限客户”销售了约 6.5 亿美元的 H20 芯片 。这表明,尽管 H20 最初被设计用于满足中国市场的出口管制要求,但其作为一种特定性能区间的产品,在其他市场也具备商业价值。这进一步证明了英伟达在产品策略上的灵活性,能够根据地缘政治环境的变化,通过调整产品规格来满足特定市场需求。

第二章:深度分析:多维视角下的严格审视

Section titled “第二章:深度分析:多维视角下的严格审视”

2.1 事实、观点与信仰的辨析:解析黄仁勋的宏大叙事

Section titled “2.1 事实、观点与信仰的辨析:解析黄仁勋的宏大叙事”

黄仁勋在财报会议中的讲话充满着宏大叙事,将英伟达的业务置于一场“新工业革命”的核心位置。他将AI基础设施的建设比作一场“AI竞赛”,并预测到本十年末,全球AI基础设施的投入将达到 3 万亿至 4 万亿美元的规模 。这不仅仅是一种市场展望,更是一种精妙的预期管理。通过将潜在市场规模设定在万亿美元级别,他试图合理化英伟达目前的高估值和持续的高速增长,并向投资者传递一个清晰的信息:我们仍在增长周期的早期。

然而,对这一预测进行事实核查,会发现来自第三方专业机构的报告给出了截然不同的数字。例如,Markets and Markets 预测到 2030 年全球 AI 基础设施市场规模为 3944.6 亿美元 ,而 Grand View Research 的预测则为 2234.5 亿美元 。这些数字与黄仁勋的 3-4 万亿美元相去甚远。这种巨大差异并非源于数据的错误,而是基于不同的定义和假设。黄仁勋的定义可能更广,将整个AI工厂所需的全部基础设施(包括电力、冷却、建筑施工等)都囊括在内 。而第三方报告则可能仅关注硬件、软件和服务本身。

这一差异也揭示了对英伟达前景判断的根本分歧。看多者相信AI将重塑一切,并克服所有物理瓶颈,从而实现万亿美元的愿景。看空者则认为,电力供应、供应链瓶颈和地缘政治等现实问题,将严重制约其增长的上限 。英伟达在会议中反复强调“每瓦性能”的提升,正是其试图通过技术进步来部分抵消现实世界中物理限制的策略体现。

2.2 逻辑漏洞与常识的拷问:探究“护城河”的边界

Section titled “2.2 逻辑漏洞与常识的拷问:探究“护城河”的边界”

在与分析师的问答环节中,黄仁勋被问及来自客户自研 ASIC(专用集成电路)的竞争。他对此的回应并非直接否认,而是将英伟达的优势重新定义为“全栈协同设计”。他指出,ASIC 在针对特定算法时可能具有更高的能效,但其灵活性差,无法适应快速演变的模型架构 。相比之下,英伟达的 GPU 平台凭借其通用性、成熟的 CUDA 软件生态系统以及从芯片、网络到系统集成的全栈解决方案,为客户提供了最佳的实用性和最长的生命周期 。

黄仁勋的这一论点并非诡辩,而是基于对商业本质的深刻理解。对于亚马逊(AWS)和谷歌(Google)等大型云服务商而言,开发自己的 ASIC(如 Trainium 和 TPU)是出于降低对单一供应商(英伟达)的依赖、控制成本并实现供应链安全的需求 。然而,绝大多数客户不具备这种自研能力。对于他们而言,选择供应商时不仅要看芯片性能,还要考量生态系统、兼容性、软件支持以及整个平台的生命周期成本 。英伟达通过其强大的全栈方案,有效地解决了这些问题,这正是其超越竞争对手的真正壁垒。

因此,GPU 与 ASIC 之间的竞争更像是通用性与专用性、开放生态与封闭生态之间的博弈,两者在短期内会共存,但英伟达凭借其生态优势,将继续在更广泛的市场中保持主导地位 。

2.3 利益与需求的驱动:揭示台面下的动机

Section titled “2.3 利益与需求的驱动:揭示台面下的动机”

对财报电话会议的分析,必须超越技术与财务本身,深入探究台面下的利益与需求。

  • 公司的利益(英伟达): 公司的核心动机是最大化营收、利润和市场份额。通过宏大叙事、超预期业绩和股票回购(本季度回购 100 亿美元,并新增 600 亿美元授权),英伟达向市场传递其增长故事的可信度,并维护其高估值。同时,公司通过技术创新持续强化其在AI基础设施中的主导地位。

  • 政府的利益(美国政府): 拜登政府的动机是多重的,既要通过出口管制维护国家安全,防止尖端技术落入战略竞争对手之手,又要确保美国企业在AI竞赛中保持领先。H20 的 15% 收入分成协议,是一种前所未有的干预模式,它既体现了政府对 AI 战略地位的高度重视,也反映了其在实用主义下对经济利益的追求 。

  • 客户的利益与需求: 客户的核心需求是获得具有最佳成本效益的算力。这就是为什么他们对“每瓦性能”和“每美元性能”如此看重。对于头部客户而言,自研 ASIC 是为了降低对单一供应商的依赖,避免被其产能和定价所掣肘。而对于绝大多数企业客户,其需求则在于一个稳定、高效、易于部署且有强大生态支持的解决方案。英伟达的全栈方案恰好满足了这一需求。

第三章:综合洞察与前瞻:对未来的多层解读

Section titled “第三章:综合洞察与前瞻:对未来的多层解读”

3.1 核心矛盾:宏大愿景与现实挑战的对立

Section titled “3.1 核心矛盾:宏大愿景与现实挑战的对立”

尽管英伟达描绘了 AI 基础设施市场的巨大潜力,但物理世界中的瓶颈是显而易见的。在会议中,黄仁勋也坦承,未来的主要限制因素将是电力和施工能力 。多家研究机构的报告也印证了这一观点,指出数据中心的爆炸式增长正在对全球电网造成巨大压力 。麦肯锡的研究数据表明,2025 年至 2030 年间,全球企业为满足 AI 需求的投资总额预计将达 6.7 万亿美元,这其中电力建设的投入将是最大的部分 。

因此,未来的 AI 竞赛将不再仅仅是芯片的竞争,更是电力、水资源、供应链和主权控制的综合博弈 。英伟达通过其“每瓦性能”的叙事,正在试图通过技术进步来部分抵消现实世界中的物理限制,从而实现其宏大愿景。

3.2 最终结论:英伟达的“叙事”与“现实”

Section titled “3.2 最终结论:英伟达的“叙事”与“现实””

英伟达在 2026 财年第二季度的强劲表现,是其在 AI 时代无可匹敌的技术、商业与政治洞察力完美结合的产物。其成功之处在于:

  • 无可争议的技术领导力: 无论是 Blackwell 平台、NVLink 72 还是 NVFP4 等创新,都展现了其在硬件和软件全栈上的领先地位。
  • 强大的市场主导权: 即使在最前沿的 Blackwell 平台迅速爬坡的同时,上一代 Hopper 平台的需求依然旺盛,这表明其产品线能够满足不同层级市场的需求,巩固了其市场份额。
  • 卓越的商业策略: 通过宏大叙事来管理市场预期,通过全栈解决方案构建生态系统护城河,同时在复杂的政治环境中保持战略灵活性。

然而,投资者和分析师也需要对以下几个方面保持警惕:

  • 宏大愿景的现实制约: 尽管市场潜力巨大,但电力、供应链、资本开支等现实瓶颈可能比技术竞争本身更能决定英伟达增长的上限。
  • 地缘政治风险的持续不确定性: H20 芯片的收入分成协议预示着一种新的、更具干预性的政府-企业关系模式,这可能在全球范围内产生深远影响,并增加未来的不确定性。
  • 来自客户自研 ASIC 的长期挑战: 尽管短期内 ASIC 无法撼动英伟达的地位,但头部云厂商的自研努力,反映了他们对供应链安全的长期需求。

综上所述,英伟达的“新工业革命”叙事,既是其对未来商业潜力的真实洞察,也包含了其巧妙的市场预期管理。其强劲的业绩源于其深厚的技术壁垒和全栈生态系统。然而,未来的发展将取决于它能否持续通过技术创新来解决物理世界中的非技术性瓶颈,以及能否在日趋复杂的全球地缘政治格局中灵活应对。

表 1:英伟达 Q2 FY26 财务数据核查与对比

Section titled “表 1:英伟达 Q2 FY26 财务数据核查与对比”
指标财报公布数据分析师预期公司展望差异分析
Q2 总营收467 亿美元458 亿美元441-459 亿美元大幅超越预期与展望
Q2 非 GAAP 毛利率72.7%71.8%71.8%高于预期,但受一次性 H20 存货准备释放影响;剔除后为 72.3%
Q3 营收展望540 亿美元 (±2%)527.6 亿美元-大幅超越预期
Q3 非 GAAP 毛利率展望73.5% (±50 个基点)--持续上升,接近 70% 中段水平

表 2:Blackwell 与 Hopper 性能参数对比

Section titled “表 2:Blackwell 与 Hopper 性能参数对比”
指标Hopper (H100)Blackwell (GB300/NVL72)性能提升与技术背景
互连技术NVLink 8 (节点级)NVLink 72 (机架级)跨代飞跃,将整个机架作为一台计算机
能效-10 倍“每瓦 Token 产出效率”提升并非简单算力提升,而是全栈优化,以应对电力瓶颈
精度格式FP8 (8 比特)NVFP4 (4 比特)在保持 16 比特精度的同时,实现 4 比特的速度与能效,带来 7 倍训练提速
推理性能-10 倍推理性能提升针对“推理与思考”类模型的优化
预测来源预测市场规模 (到 2030 年)预测 CAGR备注与分析
英伟达 (黄仁勋)3-4 万亿美元-可能包含所有相关基础设施,如电力、冷却和建筑
Markets and Markets3944.6 亿美元19.4%可能仅关注硬件、软件和服务本身
Grand View Research2234.5 亿美元30.4%市场判断存在巨大分歧,反映出对增长上限的根本认知差异
比较维度GPU(英伟达)ASIC(谷歌/AWS 等)分析与结论
通用性极强,能适应快速演变的模型架构较弱,专为特定算法设计GPU 的核心优势,是其能够持续领先的关键
性能/能效针对通用AI任务优化,通过全栈协同设计实现高能效在特定算法上性能和能效更高ASIC 有其优势,但全栈集成使其难以挑战英伟达的主导地位
生态系统拥有成熟的 CUDA 软件生态,开发者数量庞大生态封闭,需要客户投入额外开发成本英伟达的护城河,也是其他竞争者最难逾越的壁垒
供应商锁定客户存在对单一供应商的依赖客户自研,实现对供应链的完全控制头部客户自研 ASIC 的主要驱动力,以降低风险

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

Gemini 探索、ChatGPT 规划、Claude 执行:一个更强大的 AI 开发闭环

Gemini 做需求探索 → ChatGPT 做方案规划与评审 → Claude Code 生成与执行代码 → ChatGPT 复盘评审 → Gemini 总结输出。这套“分工明确”的协作链,能把日常开发从“想到—做到—评到—沉淀”串一遍。


  • 探索阶段 → Gemini:不设限抛想法,找你没注意到的模式。
  • 细化阶段 → ChatGPT:把发现转成可执行步骤,检查逻辑漏洞。
  • 整合阶段 → Claude Code:润色与整合,保证叙事一致。
  • 例子:做产品提案时,先问 Gemini 深层需求 → 让 ChatGPT 列出功能清单 → 找 Claude Code 集成为完整提案。

这把“三模型各有所长”说清楚了:Gemini 快、直觉强;ChatGPT 推理深;Claude 结构化和表达优秀。这和近几个月官方路线也挺契合:Google 把 Gemini 2.5 定位成“思考型”且提供快/省的 Flash 与更强的 Pro 版本;OpenAI 强调 ChatGPT 的推理与方案规划能力与深度研究;Anthropic 则把 Claude Code做成“能在终端里读库、改库、提 PR”的实干型工具。


  • Gemini:更像“直觉雷达” 原生多模态与“thinking models”设计,速度快、覆盖面广,在“把问题打开、捞线索”上很高效;2.5 系列把“思考预算”暴露出来,适合先广后深的探索。

  • ChatGPT:方案结构与推理深度 官方能力页与“深度研究”展示了逻辑分解、论证与整合外部资料的长项,拿来做技术方案、权衡取舍与评审很对路。

  • Claude Code:把事儿做了 定位就是“终端里的编码代理”,能读仓库、改代码、跑命令、走 GitHub Actions,把方案快速落地成 PR。

温馨提示:模型强弱会随版本迭代变化,上述分工是工程实用主义的“默认位形”,不是铁律。你随时能按项目类型微调。


日常软件开发闭环(带真实场景示例)

Section titled “日常软件开发闭环(带真实场景示例)”

我们以一个“给现有 App 增加订阅管理模块”为例,走一遍闭环。

目标:把“订阅管理”藏在用户话语背后的真实痛点捞出来,并形成用户旅程/边界条件。

示例提示(给 Gemini)

“我们要给 App 加‘订阅管理’,请从用户分群(新客/在订/流失边缘)、关键动机取消与挽留触点监管与支付合规四维度梳理潜在需求。给出 3 条我们容易忽略但高杠杆的需求假设,并为每条假设配一个可验证事件与可量化指标。”

为什么用 Gemini:适合快速扩散与枚举,还能把“thinking budget”拉高或降低,先广撒网后收口


目标:把上面的“假设—指标—场景”变成系统设计与里程碑

示例提示(给 ChatGPT)

“基于这 3 条高杠杆需求,输出技术方案草图: 1)后端数据模型与事件表(含主键、索引、冷热分层); 2)前端关键界面 Wireframe 与状态机; 3)风控/合规拦截点; 4)A/B 实验设计与样本量估算; 最后给出里程碑(两周一迭代)与风险清单(按概率×影响排序)。”

为什么用 ChatGPT:官方强调逻辑分解与方案起草,适配“把洞察落成结构化计划”。


三、代码生成与执行(Claude Code)

Section titled “三、代码生成与执行(Claude Code)”

目标:按方案直接写代码、改代码、跑任务、提 PR

怎么用

  • 终端装好 @anthropic-ai/claude-code 后,进入仓库直接对话;Claude 会读仓、建索引、定位依赖
  • 在 PR/Issue 里 @claude,可自动生成或修改代码并创建 PR。

示例命令(概念演示)

Terminal window
# 在项目根目录
claude "为订阅管理创建后端事件表、写迁移、补集成测试;若存在 Stripe Webhook 则挂载处理器。完成后开启一个 feature 分支并提交 PR。"

这一步的价值是端到端:读代码、改代码、跑脚本、走 Git 流程,全在一个回路里完成。


目标挑刺与修正。 把 Claude Code 生成的 PR 交给 ChatGPT,要求从复杂度、可测试性、回滚策略、异常路径做审核清单,再给改进 Diff建议。

ChatGPT 近来的“深度研究/长链条推理”能力,很适合做反方与 Reviewer


目标:把这轮迭代沉淀成复盘卡与知识库。 让 Gemini 读取 PR、Issue、CI 日志与监控告警,输出:

  • 一页复盘卡(目标-动作-结果-经验-遗留);
  • 面向运营/客服/法务的三份不同口径总结
  • 下轮探索清单自动化回归用例草稿。

Gemini 在多角色输出跨场景总结上,速度与覆盖面占优。


  1. 把分工写进仓库CONTRIBUTING.md 里写清:探索→规划→落地→评审→总结的默认工具与入口,减少团队认知切换成本。
  2. 把动作接到 CI/CD 启用 Claude Code GitHub Actions,实现“评论触发 PR 生成/修改”。
  3. 移动端或 Android 项目Gemini Code Assist 直接在 IDE 里解构错误、生成修复建议。
  4. 注意安全与合规 参考 Google 的生成式 AI 安全指引,尤其是用户数据最小化、可解释与回滚机制。

可复制的“闭环”清单(直接粘到你的团队 Wiki)

Section titled “可复制的“闭环”清单(直接粘到你的团队 Wiki)”
  • Gemini – 需求探索:用户分群、旅程、异常场景、关键指标。
  • ChatGPT – 方案规划:架构/数据/状态机、里程碑、实验设计。
  • Claude Code – 代码与执行:读库、改库、跑测试、开分支、提 PR。
  • ChatGPT – 评审:复杂度、可观测性、回滚、异常路径。
  • Gemini – 总结:一页复盘卡、多口径总结、下轮探索与回归。

把模型当“人”用,而不是当“工具箱”用。 直觉快的去探索,爱思考的去规划,能干活的去落地。 当每个环节都有人“负责”,你的开发节奏就顺了。

你觉得这套分工好用吗?你会怎么微调它?欢迎在评论区聊聊。

超越算力:2025年美股值得关注的AI应用公司投资潜力盘点

超越算力:2025年美股值得关注的AI应用公司投资潜力盘点

Section titled “超越算力:2025年美股值得关注的AI应用公司投资潜力盘点”

随着生成式AI和智能代理(agentic AI)加速应用,市场关注的不再只是卖GPU的厂商,而是那些已经在AI应用中建立护城河的平台公司。本文盘点了美股市场上“AI时代的Mag7”重点标的,介绍它们的业务基本面、技术优势与最新财务表现,并展望其投资潜力。

提示:本文仅供参考,不构成具体投资建议,投资有风险,请审慎决策。


Palantir (PLTR):企业级AI“操作系统”

Section titled “Palantir (PLTR):企业级AI“操作系统””

业务模式与业绩
Palantir是著名的数据分析与情报平台,面向政府和企业客户提供实时决策支持。2025年第二季度公司营收突破10亿美元,同比增长约48%,美国商用业务几乎同比翻倍,政府业务也增长53%。公司与美陆军签订了10年1,000亿美元的大合同(将75个项目整合为一个),并从美国空天军和“Maven Smart”系统中获得数亿美元级采购订单。这一季度业绩超预期,推动全年营收指引上调至约41.4亿美元区间。此外,截至2025年8月,Palantir股价年内累计上涨逾107%,反映出市场对其增长前景的肯定。

技术与护城河
Palantir的平台将算法与大规模作战、物流、能源管理等场景深度结合,类似企业级的“神经系统”。其技术能够实时整合跨部门数据(如军队调度、能源电网平衡等),减少人工延迟。关键客户如国防机构往往将Palantir平台嵌入核心流程,一旦部署难以替换,形成高换位成本。公司持续投入AI功能(如Maven AI智能系统),进一步夯实技术领先地位。

投资潜力
Palantir正在从传统项目交付向软件订阅模式转型,高增长的收入和强劲的合同积压(bookings)支撑长期增长。随着企业和政府客户越来越依赖实时智能决策系统,Palantir的市场机遇巨大。当前股价虽已大幅上涨,但基于不断扩大的市值,其估值仍具挑战;投资者需权衡其成长性与高估值带来的风险。


Cloudflare (NET):互联网边缘的“执法者”

Section titled “Cloudflare (NET):互联网边缘的“执法者””

业务模式与业绩
Cloudflare是全球领先的网络基础设施平台,为网站和应用提供CDN、安全和边缘计算服务。2025年第二季度,公司实现营收5.123亿美元,同比增长28%。截至目前,Cloudflare共有约26.6万付费客户,其中有3,712家大客户(年度营收>10万美元),显示出高粘性的收入来源。值得一提的是,Cloudflare处理了全球约20%的网络流量,意味着其掌握着大量互联网通信的“咽喉要道”。

技术与护城河
Cloudflare利用遍布全球的300+城市节点,提供“Workers”边缘计算和Zero Trust安全等服务,为AI驱动的应用提供基础设施。未来智能代理需要访问海量在线资源,Cloudflare作为网络流量的中枢,可以成为其流量路径和安全策略的必经之地。公司正在研发“Workers AI”等产品,将AI推理能力部署到边缘,加速实时计算;同时推行按爬取计费模式,让网络流量成为可创收的资产。Cloudflare不必自己训练模型,但控制了“模型与互联网之间的交互通道”,形成独特护城河。

投资潜力
Cloudflare近年业绩持续加速,2025年年初以来股价已有约94%的涨幅。业务规模的扩张(年化营收超过20亿美元)和高达114%的净留存率,表明客户需求强劲。公司在云安全和内容分发市场份额大,且不断向AI基础设施延伸,具有明显成长预期。当前估值处于高位,但鉴于其全球流量中枢地位和扩张势头,长期看仍具吸引力。


CrowdStrike (CRWD):云端安全“守护者”

Section titled “CrowdStrike (CRWD):云端安全“守护者””

业务模式与业绩
CrowdStrike是全球领先的云原生网络安全平台提供商。2025财年第二季度,公司营收11.7亿美元,同比增长21%,创历史新高;净新年度经常性收入(ARR)达2.21亿美元。截至当季末,CrowdStrike总ARR约46.6亿美元,同比增长20%。公司财报特别提到其“Falcon”安全平台的快速增长:基于Falcon Flex的新许可模式,已有超过1000家客户采用;此外,云安全业务ARR已超过7亿美元。

技术与护城河
CrowdStrike的竞争优势在于其将AI与安全防护深度融合,形成“机器速度”的防御系统。其新推出的Charlotte AI可作为企业安全运营中心的自动分析师,本季采用率环比增长超过85%。每新增一台受保护的设备,或部署一个AI工作负载,都会带来更多安全订阅(如Falcon Flex、身份安全等)和高额续费,形成良性循环。同时,公司近年收购了Onum等大数据管道企业以增强SIEM能力,进一步扩大平台覆盖度。CrowdStrike已从传统的端点防护拓展到云原生安全全栈,其成熟的企业级用户基础和高留存率构筑了难以撼动的壁垒。

投资潜力
CrowdStrike继续在AI催生的安全需求中领跑。尽管短期股价波动,但考虑到强劲的ARR增长、超过4倍的净留存率和创新的订阅模式,长期前景被普遍看好。目前市值超千亿美元,投资者需要关注其未来盈利能力和指导预期。公司坚持高研发投入,预计将进一步巩固AI安全市场地位。


Snowflake (SNOW):数据云与AI的“润滑剂”

Section titled “Snowflake (SNOW):数据云与AI的“润滑剂””

业务模式与业绩
Snowflake运营着跨云的数据云平台,让企业能够统一托管和分析来自不同云厂商的数据。2025财年第二季度,Snowflake实现产品营收10.9亿美元,同比猛增32%;净留存率高达125%,显示现有客户使用量在不断攀升。截至报告期末,公司未确认收入(RPO)达69亿美元,同比增长33%,表明未来业绩可期。2025年前两季度新增客户533家,同比增长21%,其中50家客户营收超过100万美元。值得关注的是,与微软的深度合作成效显著:在Snowflake整体营收里最大占比仍为AWS,但Azure云业务成为增长最快的云平台,收入增速40%。

技术与护城河
Snowflake的优势在于其云原生、多云兼容的数据存储引擎,以及针对AI场景的创新功能。例如,其Cortex AI SQL使用户可以直接用SQL调用生成式AI服务,提升数据查询智能化;Snowpipe Streaming、SnowConvert AI等新产品亦在快速迭代。平台的一致性和高可扩展性满足了企业构建大规模AI工作流的需求,一旦关键业务依赖于Snowflake,切换成本极高。随着越来越多组织在AI和分析项目上投入,Snowflake位于数据流动核心的地位令其成为不可或缺的基础设施层。

投资潜力
Snowflake持续加码AI生态,提升用户黏性。公司营收和订阅量快速增长,但仍处于亏损状态,对估值要求较高。2025年8月财报发布后,公司上调全年营收指引,股价随之大涨。对于投资者而言,可关注其盈利路径与净利率改善,以及AI应用落地带来的长期价值增长。


MongoDB (MDB):面向AI的“内存层”

Section titled “MongoDB (MDB):面向AI的“内存层””

业务模式与业绩
MongoDB是热门的开源文档数据库,其云端服务Atlas成为企业级数据库替代方案。2025财年第二季度,公司营收5.914亿美元,同比增长24%;其中Atlas占比持续扩大,Atlas收入较去年同期增长29%,占当季收入的74%。公司客户基数庞大,截至7月31日,总客户接近5.99万家(其中近2800家为季度内新增),显示出广泛的市场渗透度。管理层表示,许多新客户是为AI应用打造基础设施,强调MongoDB在AI时代的价值。

技术与护城河
MongoDB的文档模型和灵活查询能力与传统关系型数据库(如Postgres)不同,为需要海量非结构化或半结构化数据处理的AI应用提供天然优势。在矢量检索(向量搜索)和流处理方面,MongoDB不断增强其平台功能。例如,MongoDB最近推出内置向量搜索模块,满足嵌入式检索需求。而其Atlas云服务将运维管理与数据库处理合二为一,让企业能够轻松地将AI数据“留存于内存”,支持在内存级别进行实时更新与检索。一旦企业在关键应用中采用了MongoDB,想要替换需要承担巨额迁移成本。此外,MongoDB的生态与合规性逐渐成熟,其开源社群成为技术创新的推动力。

投资潜力
MongoDB仍在亏损扩张期,追求更高增长而非当前盈利。公司持续在营销和研发上重投入,并看好未来AI业务。分析师普遍看好其成长性——根据StockAnalysis的数据,覆盖它的分析师一致评级为“强烈买入”,目标价在每股300美元左右。作为一家典型的高增长科技股,MongoDB具有较高波动性,投资时应做好风险控制。


Tesla (TSLA):数字化+实体化的AI先锋

Section titled “Tesla (TSLA):数字化+实体化的AI先锋”

业务模式与业绩
特斯拉不仅是全球最大的电动汽车制造商,也是快速崛起的AI和能源企业。2025年第二季度公司营业收入225亿美元(同比下滑12%);归属母公司净利润为12亿美元。这一季公司宣布在奥斯汀推出机器人出租车服务,且已交付了首辆完全自主驾驶汽车。此外,公司在上海推出首批Megapack能量储存设备,继续刷新能源存储部署纪录。特斯拉还透露,其自动驾驶研发完全基于车载摄像头(无雷达),并利用数百万辆在线车辆持续收集道路数据,通过神经网络不断优化模型。

技术与护城河
特斯拉的独特在于它拥有真正的端到端数据闭环:自上亿台电动车的实路数据训练AI模型,形成无人可比的感知能力;而大量部署在住宅和电网边缘的Megapack则可以与智能电网协同,实现能源的智能管理。即使面临传统汽车和科技巨头的挑战,特斯拉的巨量真实世界数据以及完全自主的研发与制造体系,使其无人驾驶和机器人项目(如Optimus机器人)具有难以复制的优势。事实上,特斯拉目前市值已突破1万亿美元,远超传统车企总和,体现了市场对其未来AI+能源愿景的预期。

投资潜力
特斯拉处于“未来型公司”估值体系之中,短期业务受车型更新和宏观环境影响较大,但长期回报取决于自动驾驶、机器人和能源业务的成熟度。其Robotaxi和FSD业务一旦规模化,将开启数千亿美元市值的新赛道。投资者需关注特斯拉的技术进展速度和监管环境,但由于其独特的数字化生态,目前特斯拉依然是AI投资组合中不可或缺的一环。


Axon Enterprise (AXON):公共安全的AI控制中心

Section titled “Axon Enterprise (AXON):公共安全的AI控制中心”

业务模式与业绩
Axon为执法与公共安全部门提供集硬件(如电击枪、执法摄像机)与软件(Evidence.com证据管理平台、实时调度、AI辅助工具)于一体的解决方案。2025年第二季度,公司营收6.69亿美元,同比增长33%。其中软件与服务收入29.2亿美元(+39%),设备销售收入37.6亿美元(+29%)。截至报告期末,公司年化经常性收入(ARR)约12亿美元,同比增长39%,净留存率124%。公司通过持续引入AI功能(如证据检索智能标签、实时翻译等)巩固产品差异化地位。

技术与护城河
Axon的生态系统已经成为美国执法机构的事实标准。立法层面多州将使用随身执法摄像头的数据作为程序规范(如法律要求录像提供情况),这使得Evidence.com平台成为换代成本极高的“企业操作系统”。一旦机构构建在Axon平台上,换用他家产品不仅需要重新修订规章制度,还需大规模培训人员。同时,Axon通过不断推出新设备(TASER 10、电击枪、车载摄像头等)与软件功能(基于云的实时监控、训练模拟、无人机系统等)形成协同,将硬件使用与软件订阅紧密捆绑。在AI应用方面,公司自诩为行业首家推出AI驱动警务工具的厂商,未来可利用机器视觉、大数据分析提升警务效率,进一步加深护城河。

投资潜力
Axon业绩连续加速增长,2025年营收指引也被上调。其宽广的客户基础(涉及数千家执法机构)和高黏性的订阅业务使得业绩具备高度可见性。截至8月29日,Axon市值约为587亿美元,在公共安全领域居于领先地位。虽然安防板块通常估值相对保守,但Axon结合了硬件、高级软件和AI的三重优势,长期成长潜力突出。


以上公司代表了AI发展第二阶段的核心平台。它们各自在数据处理、网络基础设施、安全防护、核心应用层面形成了深厚的壁垒。随着AI智能代理(agents)逐渐进入实体世界(从能源、电网到城市管理和安全执法),对这些平台的依赖将与日俱增。在投资上,这些标的虽有估值或运营波动风险,但从基本面看都具备显著的增长动力和护城河。提醒投资者:技术创新迅速,需动态跟踪业绩与竞争格局变化,理性配置资产。

Gemini CLI Companion × VS Code/Cursor:把 gemini-2.5-pro 接入你的 IDE

把 Gemini CLI gemini-2.5-pro 接到 VS Code/Cursor 的终端里,让它看见你的工作区、理解你的选区、直接弹出原生 Diff 窗。更聪明、更稳、更省事。


还在“复制→粘贴→回车”的土法交互? 现在,命令行 = IDE 的超脑插件。 Gemini CLI 最新更新,直接打通 VS Code 集成终端: 读工作区、识别选中文本、原生并排 Diff、接受前可二次改。爽。


  • 上下文直连工作区:能“看见”你打开的文件,也能读你选中的那一段,建议更精准。
  • 原生全屏 Diff:CLI 给的修改,直接弹 VS Code 的并排 Diff 窗;先改再收,不会一键糊你盘。
  • 一键开关/ide enable 开,/ide disable 关,随时切换。
  • Cursor 基本可用:官方扩展标注兼容 VS Code 及其 fork(Cursor 属 VS Code fork),但个别场景需手动装扩展

以 VS Code 为例;Cursor 基本同理(需手动装扩展,见下文“常见坑”)。

  1. 先决条件
  • Gemini CLI 版本 ≥ 0.1.20
  • 必须从 IDE 的集成终端里运行 CLI(不是外部终端)。
  1. 一次性安装 在 VS Code 终端运行:
Terminal window
gemini

gemini-cli 安装 ide 集成:

/ide install

它会自动安装 Gemini CLI Companion 扩展。

  1. 打开集成
/ide enable

需要时关闭:

/ide disable

补充:扩展商店页面说明该扩展适配 VS Code 及 VS Code forks;若你用 Cursor,直接在商店手动搜索并安装“Gemini CLI Companion”。


推荐使用法(把它当“代码副驾 + 改码机器人”)

Section titled “推荐使用法(把它当“代码副驾 + 改码机器人”)”
  • 在文件里框选要改的段落
  • 终端里对 Gemini 说需求(或用你的常用提示模板)
  • 并排 Diff 弹出 → 你可先微调右侧改动 → 再点接受

适合:Bug 小修、接口对齐、重命名、日志统一等“细颗粒”改动。

  • 打开涉及的 2–3 个关键文件(让它“看见”上下文)
  • 给出“目标+约束”(如保留接口签名、通过现有测试)
  • 在 Diff 中分批落地,兼顾安全与节奏

适合:控制器瘦身、Hook 抽取、错误处理规范化。

  • 善用选区让它“少走神”
  • 复杂文件中,只喂关键函数/片段,减少跑偏

适合:长文件、历史包袱大的模块。


  • VS Code/ide install 自动装扩展 → /ide enable 即可。

  • Cursor

    • 扩展页手动安装“Gemini CLI Companion”(VS Code forks 兼容)。
    • /ide install 提示“No installer for Cursor”,属已知问题,按提示改为手动装
    • Cursor 对大多数 VS Code 扩展开箱支持(官方与多方测评均有表述),但以实际为准。

  • 扩展已装,但 CLI 说连不上 IDE

    • 可能是所需环境变量(如 GEMINI_CLI_IDE_WORKSPACE_PATH / GEMINI_CLI_IDE_SERVER_PORT)没就绪
    • 解决:确认扩展开启;重新开一个 IDE 终端再试。
  • Cursor 里 /ide install 失败

    • 信息:“No installer is available for Cursor
    • 解决:去扩展市场手动安装同名扩展。
  • 看不到原生 Diff

    • 确认在 IDE 集成终端里跑 CLI,而非外部终端。

  • 个人开发者:小步快跑、边改边看
  • 团队协作统一风格批量小改(日志、异常、命名、注释)
  • 旧代码治理:低风险“切片式”重构,边 Diff 边落地

本质上,它把“LLM 改码”变成可审可控的 IDE 原生流程。


  1. npm i -g @google/gemini-cli(已装请略)
  2. VS Code 打开项目 → 集成终端运行:/ide install/ide enable
  3. 打开 2–3 个关键文件,先小范围试改(选区驱动)
  4. 看到 Diff → 先微调再接收 → 提交带说明的 commit
  5. 写个团队规范:哪些改动先交给 Gemini,哪些必须走人工评审

官方博文与扩展页都有关键说明,建议收藏。


把命令行“硬核力”和 IDE “可视化”结合起来,效率和确定性同时提升。 今天就把 Gemini CLI 接上 VS Code/Cursor,让改动更可控、上下文更精准、协作更顺滑

Codex 发布 VS Code / Cursor IDE 插件

想把“会写代码的 CodeX GPT-5”塞进 VS Code?Codex IDE 这波真的到位。读/改/跑,一把梭。本文带你 10 分钟摸清亮点、安装步骤、以及最推荐的上手场景。


它是“能自己跑代码的代理”。 不是只会聊天的助手。Codex 能在你的工作目录里直接读文件、改代码、跑命令,还支持把大活儿丢到云端跑,改完再一键拉回本地验收。官方扩展已适配 VS Code / Cursor / Windsurf,macOS、Linux 体验稳定;Windows 建议配 WSL。

侧边面板同屏协作。 把 Codex 面板拖到编辑器右侧,选中一段代码就能少打字、给更准的上下文,响应更快更贴题。

三种“批准模式”,安全与效率自选。 默认 Agent 可在当前目录自动读/改/跑;需要出目录或联网会再问你。也能切到只聊天的 Chat,或完全放开权限的 Agent (Full Access)(慎用)。

云端代跑,现场旁观。 本地聊着聊着,一键“Run in the cloud”。大项目开新分支让它先干;小任务基于你本地改动收尾更顺手。云端上下文会延续回本地,拉回测一遍再合并。

可编排、可扩展。 扩展本体围绕开源 Codex CLI 打造,支持 MCP 与 AGENTS.md 规范,方便团队把“项目规则、构建步骤、验收流程”写给代理读。


① 安装扩展 从 VS Code Marketplace 搜 “Codex – OpenAI’s coding agent”,点安装即可;Cursor、Windsurf 同理。

② 登录 推荐用 ChatGPT 账号(Plus / Pro / Team / Edu / Enterprise 都包含)。也可用 API Key,但需要额外配置。

③(可选)装 CLI 想跑纯终端或做 CI,装 Codex CLI: npm i -g @openai/codexbrew install codex,随后 codex 直接开干。

Windows 小贴士:配合 WSL 体验更稳。


让 Codex 在 repo 里跑测试、搜调用链、总结模块职责,给你一张“开箱导览”。适合新人进组或接锅老项目。

Agent 模式下,直接让它新建文件、改路由、补单测、运行本地命令,你只需把关 PR。

交代目标与约束,让它分批提交改动。若耗时长、影响大,切到云端任务跑,边看 diff 边 review。

给日志与复现步骤,让它写探针脚本/本地压测命令并执行,产出对比报告。

在项目根加 AGENTS.md:建构/测试/代码风格/提交规范/安全要点写清。代理照单执行,减少“口头约定”。

把“需求 → 云端代跑 → 本地验收 → 合并”的流转定成团队 SOP,人人同一套动作,交付节奏更稳。


  1. 面板切 Agent
  2. 选中代码 → 说明意图 → 让它改并跑。
  3. 看 diff,不满意就“撤回/重做”。
  1. 说明目标与约束(分支、测试覆盖)。
  2. 选择环境 → Run in the cloud
  3. 期间可继续本地开发;完成后把改动拉回本地测一遍。

Chat,先把设计、接口、边界想清楚,再换回 Agent 落地实现。


  • 规范写进 AGENTS.md:安装命令、测试脚本、Lint 规则、提交模板、权限范围。代理就会按你写的来。

  • 按场景选模式

    • 方案讨论用 Chat
    • 局部改动用 Agent
    • 大范围/联网操作再考虑 Full Access
  • 云端任务做“重活”:迁移框架、批量重构、生成大型测试集。

  • VS Code 右侧面板固定,减少来回切窗。


  • 装完看不到? 在侧栏扩展区,可能折叠了;拖到右侧固定。

  • 计划在 Windows 用? 先上 WSL,体验更丝滑。

  • 怎么更新? 扩展会自动更新,也可在 IDE 扩展页手动检查。


  • 本地 = 快速改/跑Agent 模式够用。
  • 云端 = 干重活,保留上下文、改完拉回测。
  • 规则写进 AGENTS.md,团队协作质量上限被拉满。

  • “在 apps/web 新增 /pricing 页面,用 Tailwind,补 e2e 测试并 npm run test 通过后提交。”
  • “把 UserService 的 N+1 查询用 includes 优化,生成基准对比报告。”
  • “把 Monorepo 的 eslintprettier 升级到最新稳定版,修复所有 CI 报错再发起 PR。”

Zed 支持 ACP 接入 Claude Code 与 Gemini:给多位 AI 同事派活

Zed 把“代理”做成了标准接口(ACP),把命令行里的智能体请进了编辑器。Gemini CLI 率先接入;Claude Code 也可通过社区桥接跑在 Zed 的 ACP 上。未来,多 Agent 共存将是常态。


  • ACP = 给 AI 编程 Agent 的“LSP”。Zed 把协议开源(Apache),任何实现 ACP 的 Agent 都能在 Zed 里跑。
  • Gemini CLI 官方打样:Zed 0.201.5 起,Agent 面板内直接新建 Gemini 线程;未安装会自动装;需要 Gemini CLI ≥ 0.2.0
  • Claude Code 现在也能接:用社区开源桥接 acp-claude-code,一行配置就行,支持自动接受文件编辑权限模式。
  • 注意功能差异:Gemini CLI 目前仍缺少“历史消息编辑/从历史恢复/checkpoint/SSH 项目内使用”等能力,官方规划补齐。
  • 数据在本地:第三方 Agent 交互不经过 Zed 服务器;多缓冲区可视化改动、实时预览很香。

1)编辑器与 Agent 解耦 像 LSP 解耦语言服务一样,ACP 把“哪位 Agent 上场”这件事交给你选。同一个项目,随时切换不同 Agent 解决不同问题。

2)“真·命令行能力”,但在编辑器里可视化 Zed 在后台直接跑真实的 Gemini CLI 子进程,用 JSON-RPC 说话;你得到 CLI 的全部能力,同时拥有实时变更可视化多缓冲区审阅

3)开源协议 + 生态扩张 ACP 开源(Apache),Neovim 社区也已跟进支持 ACP 兼容 Agent。生态不是单机模式


准备 Zed: Stable 版 0.201.5+ 可直接用外部 Agent;cmd-? 打开 Agent 面板,右上角 + 新建 Gemini 线程。可加快捷键:

[
{ "bindings": { "cmd-alt-g": ["agent::NewExternalAgentThread", { "agent": "gemini" }] } }
]

准备 Gemini CLI:

  • 未安装时 Zed 会代为安装;已装则走 PATH。
  • ≥ 0.2.0;常见升级命令:
Terminal window
npm install -g @google/gemini-cli@latest
  • 登录可选:Log in with Google / GEMINI_API_KEY / Vertex AI

使用提示:

  • 支持 @ 文件 / 线程 / 符号 / 抓网页。
  • 暂不支持:历史消息编辑、从历史恢复、checkpoint、SSH 项目内使用。

一键把 Claude Code 接进 Zed(社区桥接)

Section titled “一键把 Claude Code 接进 Zed(社区桥接)”

现在你也能在 Zed 里用 Claude Code:社区实现的 ACP 桥接器 acp-claude-code。按下面加到你的 Zed 设置即可(支持自动接受编辑权限):

{
"agent_servers": {
"claude-code": {
"command": "npx",
"args": ["acp-claude-code"],
"env": {
"ACP_PERMISSION_MODE": "acceptEdits" // 自动接受文件编辑
}
}
}
}

这个桥接器实现了 ACP Agent,封装 Claude Code SDK,支持会话保持、流式输出、工具调用、权限模式 等;仓库声明 Zed 团队在做原生支持,当前以桥接形态使用。

备注:acceptEdits 仅自动接受“文件编辑”;若用 bypassPermissions绕过所有权限(不推荐,除非在干净环境做批处理)。

Claude Code 安装(如未安装):

Terminal window
npm install -g @anthropic-ai/claude-code

  • 大仓重构与批量修补:多缓冲区审阅 + 实时可视化,改动一览无余
  • 多 Agent PK:同题不同解。Gemini 先出重构方案,Claude Code 再补测试与提交信息。一个编辑器搞定。
  • 安全/合规团队:外部 Agent 交互不经 Zed 服务器,更安心。

  • 命令面板运行 dev: open acp logs,查看 Zed 与 Agent 的消息收发,定位问题非常直观。
  • 需要快捷开新线程?动作名:agent::NewExternalAgentThread

  • 今天:Gemini CLI 官方集成已上线。
  • 正在发生:社区已把 Claude Code 接入 ACP(桥接器开源活跃)。
  • 可预期:ACP 是开源协议,更多 Agent(如 Codex CLI、Cursor CLI 等)完全可以接入;这不是空想,Zed 博文明确鼓励第三方 Agent 与其他编辑器加入。

  1. Gemini 线路
  • 升级 Zed 到稳定版(≥0.201.5)。
  • 打开 Agent 面板新建 Gemini 线程;如需升级 CLI:npm i -g @google/gemini-cli@latest
  1. Claude Code 线路(桥接)
  • 安装 Claude Code:npm i -g @anthropic-ai/claude-code
  • 在 Zed 设置写入上面的 agent_servers 片段,建议 ACP_PERMISSION_MODE=acceptEdits
  1. 调试
  • dev: open acp logs 看日志,排查权限/会话问题。

  • 你的项目里,哪类任务更适合交给 Gemini?哪类交给 Claude Code?
  • 团队要不要设定权限策略(如只自动接受编辑,不自动执行命令)?
  • 要不要做一场“多 Agent PK”的内部学习会?

(Claude Code 待续)Zed 引入 ACP 接入外部 Agent(Gemini CLI 已上线)

Zed 做了一个 Agent Client Protocol(ACP),把“终端里的智能体 Gemini CLI, Claude Code”等接进编辑器里。第一个落地案例就是 Gemini CLI。你继续用熟悉的 CLI,Zed 负责把它嵌到面板里、看得见改动、还能多缓冲区审阅。官方还明说,ACP 是开源(Apache 2.0),欢迎更多 Agent 和编辑器加入生态。


  • ACP = 给智能体的“LSP”:像当年的语言服务器协议一样,把 Agent 和编辑器解耦,想换就换。
  • Gemini CLI 已可直接在 Zed 用:打开 Agent 面板即可新建线程;Zed 0.201.5+ 支持。
  • 真实 CLI、非“阉割版”:Zed 后台跑 Gemini CLI,通过 ACP 对话;可在编辑器里直观看到文件与改动。
  • 开箱就能干活:没装 CLI 会自动安装;已装则走 PATH;Gemini CLI 需 ≥ 0.2.0
  • 可自带任意 Agent:只要会说 ACP,改下配置就能接;内置调试日志。

很多人问:“我能不能在一个编辑器里切换多个 AI 编程 Agent?” Zed 这波给了答案:能。现在就能。ACP 把‘代理’和‘编辑器’分开了,Gemini CLI 率先打样,Neovim 也已跟进支持 ACP 的生态(Code Companion)。生态的门,打开了。


1)像 LSP 一样“解耦” 你不必为了换 Agent 换编辑器。任何讲 ACP 的 Agent 都能插进 Zed 的 UI,享受多缓冲区对比、语法高亮、以及对改动的实时可视化。数据只在本地,不经过 Zed 服务器。

2)“真实能力”+“编辑器体验” Zed 不是模拟一个“聊天窗口”,而是直接把 Gemini CLI 当子进程跑,用 JSON-RPC 通信。好处是:你得到 CLI 的全部能力,同时获得编辑器级的变更预览与导航

3)开放生态 ACP 开源(Apache 2.0),官方还号召其他编辑器加入;Neovim 的 Code Companion 已支持 ACP 兼容 Agent。这意味着未来你可以在不同编辑器里获得类似体验


现在能干什么?(Gemini CLI in Zed)

Section titled “现在能干什么?(Gemini CLI in Zed)”
  • 直接在 Agent 面板跑 Gemini CLI 线程(cmd-? 打开面板,右上角 + 号新建)。Zed Stable v0.201.5+ 支持。
  • 可 @ 引用文件、符号、历史线程,甚至抓取网页;但目前暂不支持回溯编辑历史消息、从历史恢复、checkpoint、安全壳(SSH)项目里用 Agent——这些“官方 Agent”特性正在补齐。
  • 键位绑定示例(你可以给 Gemini 分配快捷键):
[
{
"bindings": {
"cmd-alt-g": ["agent::NewExternalAgentThread", { "agent": "gemini" }]
}
}
]

(来自 Zed 文档示例。)


第 0 步:更新 Zed 确保 Zed 版本满足 Stable v0.201.5+(或更新的 Preview 版本)。

第 1 步:准备 Gemini CLI

  • 若你 未安装,Zed 会自动装一个版本;
  • 若你 已安装,Zed 直接用 PATH 里的;
  • Gemini CLI ≥ 0.2.0,版本太旧会报错;升级通常跑:
Terminal window
npm install -g @google/gemini-cli@latest

第 2 步:登录方式三选一

  • Log in with Google:浏览器弹出,Zed 不会看到你的 OAuth/Token
  • Gemini API Key:若设置了 GEMINI_API_KEY,Zed 直接使用;否则会提示你输入,并安全存到系统钥匙串
  • Vertex AI:已正确配置 GCP 环境的用户可选。

进阶:接入你自己的 Agent(ACP)

Section titled “进阶:接入你自己的 Agent(ACP)”

配置很简单

{
"agent_servers": {
"Custom Agent": {
"command": "node",
"args": ["~/projects/agent/index.js", "--acp"],
"env": {}
}
}
}

写个会说 ACP 的进程就能接。开发时可用 “dev: open acp logs” 打开调试视图,看 Zed 与 Agent 的消息收发。


1)大仓重构 / 批量修补 多缓冲区同时审阅改动,一眼看完;失败重试、重写补丁更顺手。

2)多 Agent 竞争上岗 今天你想让 Gemini CLI 修测试,明天换另一个 ACP Agent 做性能实验切换 Agent,不换编辑器

3)安全合规团队 真实 CLI 在本地跑,Zed 只是 UI 管理和协议转发;没有把你的代码传到 Zed 服务器。对内网仓、金融医疗等场景更友好。

4)从“命令行工作流”平滑过渡到“编辑器工作流” 你仍然是 CLI 的肌肉记忆,但获得编辑器级的变更可视化与导航,效率更稳。


  • 现在就能用:Zed 已在稳定版开启外部 Agent 支持,Gemini CLI 首发。
  • 生态在扩ACP 开源,官方也鼓励其他编辑器更多 Agent加入;Neovim 已通过 Code Companion 接了 ACP 兼容 Agent。
  • 可预期的下一个Claude Code、Codex CLI、Cursor CLI 等只要实现 ACP,就能无缝进 Zed。这是趋势判断(并非官方承诺),但从 ACP 的开放性与官方表态看,很可能会发生

  1. 升级 Zed ≥ v0.201.5;打开 Agent Panel(cmd-?)

  2. 终端安装(或让 Zed 自动装)Gemini CLI ≥ 0.2.0

    Terminal window
    npm install -g @google/gemini-cli@latest

    然后按提示登录。

  3. 绑定快捷键(可选):见上文 JSON 示例。

  4. 想接自研 Agent?把 agent_servers 写进设置,用 “dev: open acp logs” 调试


  • 在你的项目里开一个 Gemini 线程,让它补齐测试 + 出一版重构计划
  • 给团队演示:切换不同 Agent 解决同一个问题,现场对比效果。

你觉得 ACP 还适合干啥?评论区聊聊。


把 Claude Code 接上国产大模型:DeepSeek/GLM-4.5/Kimi K2

把 Claude Code 指向国产模型 API,开箱能写代码、能跑指令、能提 PR。

——别纠结,照这篇一步步抄就行。


最近大家都在玩 Claude Code。 问题是:公司网络/预算不方便直连海外,那还怎么玩?

好消息是,国内几家头部模型已经提供了 “Anthropic 兼容” 的接口。 把 Claude Code 的 Base URL + Key 改一改,就能直接用。 本文手把手接好 DeepSeek、智谱 GLM-4.5、Kimi K2,顺带给你一份避坑清单


Terminal window
# 需要 Node.js 18+
npm install -g @anthropic-ai/claude-code

安装完成,终端输入 claude 进入交互界面。官方支持 Node18+,交互里还能用 /config 调整设置。

  • DeepSeek:平台开通后在 API Keys 页面创建密钥。
  • 智谱 Z.AI(GLM-4.5):控制台生成密钥。
  • Kimi K2(Moonshot):控制台生成密钥。

直接在当前终端导出变量;重开终端会失效。要永久生效见下文“长期配置”。


方案 A:DeepSeek(官方提供 Anthropic 兼容)

Section titled “方案 A:DeepSeek(官方提供 Anthropic 兼容)”

临时设置:

Terminal window
export ANTHROPIC_BASE_URL="https://api.deepseek.com/anthropic"
export ANTHROPIC_AUTH_TOKEN="你的DeepSeek_API_Key"
export ANTHROPIC_MODEL="deepseek-chat"
export ANTHROPIC_SMALL_FAST_MODEL="deepseek-chat"
export API_TIMEOUT_MS=600000

然后在项目目录里执行:

Terminal window
claude

DeepSeek 官方文档给出了 Anthropic 兼容路径推荐模型名、以及 长输出需加超时 的说明。

长期配置(zsh 示例):

Terminal window
cat >> ~/.zshrc <<'EOF'
export ANTHROPIC_BASE_URL="https://api.deepseek.com/anthropic"
export ANTHROPIC_AUTH_TOKEN="你的DeepSeek_API_Key"
export ANTHROPIC_MODEL="deepseek-chat"
export ANTHROPIC_SMALL_FAST_MODEL="deepseek-chat"
export API_TIMEOUT_MS=600000
EOF
source ~/.zshrc

验证: 启动后输入 /status 看当前模型;也可以 echo $ANTHROPIC_BASE_URL 自检。


方案 B:智谱 GLM-4.5(Z.AI 官方教程直连 Claude Code)

Section titled “方案 B:智谱 GLM-4.5(Z.AI 官方教程直连 Claude Code)”

临时设置:

Terminal window
export ANTHROPIC_BASE_URL="https://api.z.ai/api/anthropic"
export ANTHROPIC_AUTH_TOKEN="你的Z.AI_API_Key"
# 可选:默认模型
export ANTHROPIC_MODEL="glm-4.5"

官方页面明确写了 Anthropic 兼容端点,并给出在 ~/.claude/settings.json 中切换 glm-4.5glm-4.5-air 的方式。

用 settings.json 切模型(可选):

{
"env": {
"ANTHROPIC_MODEL": "glm-4.5-air"
}
}

保存后新开一个终端再 claude,在界面里 /status 查看。


方案 C:Kimi K2(Moonshot 的 Anthropic 兼容)

Section titled “方案 C:Kimi K2(Moonshot 的 Anthropic 兼容)”

临时设置(全球域名更通用):

Terminal window
export ANTHROPIC_BASE_URL="https://api.moonshot.ai/anthropic"
export ANTHROPIC_AUTH_TOKEN="你的Moonshot_API_Key"
# 部分部署会把温度做0.6映射,保持默认即可

Moonshot 团队在 K2 仓库与技术博客多次强调 同时兼容 OpenAI / Anthropic;社区与指南也普遍使用 https://api.moonshot.ai/anthropic 作为 Base URL。注意:有些帖子写成 .cn 域名会失败,请以 .ai 为准或以控制台文档为准。


进入 claude 之后,建议先做 3 件事:

  1. 看模型:输入 /status 或问 “你现在的模型 ID 是?”
  2. 跑个命令/bash echo "hello cc" 看权限弹窗是否正常。
  3. 改个文件:让它在示例仓库里新建 README_CC.md,确认能读写。

这些都是 Claude Code 官方推荐的交互与配置方式。


Q1:401 未授权? 多半是 Key 没带对。Claude Code 支持两种鉴权位:

  • ANTHROPIC_API_KEY(发到 X-Api-Key
  • ANTHROPIC_AUTH_TOKEN(发到 Authorization: Bearer) 国产兼容端一般用 AUTH_TOKEN + 自定义 Base URL 更稳。

Q2:连不上 / 404?

  • Base URL 路径要包含 /anthropic(例如 DeepSeek、Moonshot 的兼容端)。
  • Kimi 用 .ai 域名更可靠,部分 .cn 会挂。

Q3:网页搜索 / WebSearch 工具没反应? 用的不是官方 Anthropic API 时,内置 WebSearch 工具不会提供。需要接 外部 MCP 搜索(Tavily/Brave/DuckDuckGo 等)。

Q4:长输出容易超时? DeepSeek 官方建议加 API_TIMEOUT_MS=600000(10 分钟)。

Q5:多模态/图片消息? 兼容端可能不完全支持所有 Anthropic 字段(比如图片/文档内容)。以厂商文档为准。


  • 保护仓库隐私:在 ~/.claude/settings.json 里把 .envsecrets/** 加入 permissions.deny
  • 敏感代码脱敏:公司代码先过一层 Git 镜像或删秘钥再让 AI 看。
  • 权限模式:默认保留确认弹窗。--dangerously-skip-permissions 仅在你完全信任环境时临时使用。

供应商Base URL必填环境变量推荐模型名
DeepSeekhttps://api.deepseek.com/anthropicANTHROPIC_AUTH_TOKENdeepseek-chat
智谱 Z.AIhttps://api.z.ai/api/anthropicANTHROPIC_AUTH_TOKENglm-4.5 / glm-4.5-air
Kimi K2https://api.moonshot.ai/anthropicANTHROPIC_AUTH_TOKEN(按平台路由即可)

以上均为厂商及官方渠道公开说明或实测常用配置。


不想每次 export?直接把环境变量写入 ~/.claude/settings.json

{
"env": {
"ANTHROPIC_BASE_URL": "https://api.deepseek.com/anthropic",
"ANTHROPIC_AUTH_TOKEN": "xxxxx",
"ANTHROPIC_MODEL": "deepseek-chat",
"API_TIMEOUT_MS": "600000"
}
}

settings.json 是官方推荐的全局/项目分级配置方式,支持 env、权限、hooks 等统一管理。


接上国内模型后,Claude Code 依旧是那个“把灵感变代码”的生产力发动机。 哪家更顺手?DeepSeek 快、GLM-4.5 思考稳、K2 价格香,你现场对比就知道。 跑通一条,团队就能低成本试点 AI 代码协作,把效率真金白银落地。

你觉得哪个组合更顺手?有没有踩过别的坑?评论区聊聊你的实践

Google Translate 实时对话 + AI 口语练习,学英语更轻松

现在用 Google 翻译,不止“看懂”,还能听着聊跟着练。旅行、出差、外贸、交换生…都更省心了。


出门在外,最难的是开口。 这次 Google 给翻译 App 装上了两把“新齿轮”:实时对话翻译个性化口语练习。 实际用下来,像多了个随身“同声传译 + 私教”。

注意:截至 2025-08-27(亚太),实时对话功能率先在美国、印度、墨西哥上线;练习功能正逐步内测。支持70+ 语言的现场对话(含阿拉伯语、法语、印地语、韩语、西语、泰米尔语等)。


  • 一键“Live translate”:双语来回说、屏幕双语字幕、实时播报,能自动识别停顿、口音、语调,在机场、咖啡馆这类嘈杂环境也更稳。
  • AI 口语练习:按目标生成人机对话场景;听力点词 + 口语引导双模式;每日进度自动记录。英语↔️西/法/葡优先开放。
  • Gemini 加持:更强的语义理解、多模态和 TTS,自然度更高。

iOS 在 App Store 搜索 Google Translate → 安装 → 打开 App → 允许麦克风权限。

Android 在 Google Play 搜索 Google Translate → 安装 → 打开 App → 允许麦克风权限。 可在设置里打开 Tap to Translate(悬浮翻译气泡),在任意 App 里复制文字即可快译。

别混淆:Pixel 手机上还有系统级 Live Translate(设定里开关),与这次“翻译 App 内的 Live translate”不是同一入口。


怎么用 打开 Translate → 点 Live translate → 选两种语言 → 直接说。 App 会自动在两种语言之间切换,播报译文并显示双语字幕。

为什么更稳 采用新的语音/语音识别模型,能隔离环境噪声。在机场、地铁、夜市这种场景也能用。

当前可用地区:美国、印度、墨西哥(后续会扩)。

超好用场景

  • 学语言:和外教、同学练口语,App 实时字幕帮你 catch 重点。
  • 打车 & 路问路:对司机说中文,乘客听到外语;司机回外语,你这边播报中文。
  • 餐厅点单:描述忌口/过敏,App 自动口译,避免沟通尴尬。
  • 前台/海关/酒店 check-in:需要反复确认信息时,双语字幕可回看记录更安心。

口语练习:AI 私教,按你目标定制

Section titled “口语练习:AI 私教,按你目标定制”

入口:Translate App → Practice 怎么玩

  • 选水平与目标(旅行生存、商务沟通、日常寒暄)→ App 即时生成情景对练
  • 听力模式:听对话、点你听到的关键词。
  • 口语模式:开口说,遇到卡壳给提示
  • 进度记录:追踪每日练习曲线,逐步加难

已知开放

  • 英语使用者练西/法;西/法/葡语使用者练英语。其余语言按批次扩展中。

适合谁

  • 出行前 7 天速成:每天 10 分钟冲“机场/酒店/餐厅/问路”四大场景。
  • 外贸/客服:先把“自我介绍、价格条款、售后流程”练熟,再上桌谈。
  • 留学/交换:宿舍、课堂、社团话题一键生成,先在 App 里“演练”一遍。

实战技巧清单(体验直接拉满)

Section titled “实战技巧清单(体验直接拉满)”
  • 带一副有线/降噪耳机:收音更稳,双方更容易听清。
  • 收藏“高频句”:常用表达建成短语本,配合 Tap to Translate,聊天回覆更快。
  • 离线应急:文本/相机翻译支持离线语言包(先下载)。实时对话通常需联网
  • 别忘隐私:现场沟通别读银行卡/私密信息;公共场合注意外放音量。
  • 区分两个“Live Translate”:系统级(Pixel 设置)与 App 内入口不同,上手别找错。

推荐使用场景(从“好用”到“离不开”)

Section titled “推荐使用场景(从“好用”到“离不开”)”
  • 背包客 & 自驾:问路、订活动、修车救援,一机搞定。
  • 跨国项目沟通:站会、需求澄清、演示讲解,先用实时对话把信息跑通,再补文档。
  • 医疗就诊:症状描述、过敏史、用药频次,双语字幕可回看,减少误解。
  • 教学/志愿者:和外籍家长、来访学生交流更顺。
  • 跨境电商:旺季客服高峰,先用对话达成基本理解,再转书面处理。

  • 地区逐步开放:今天先到美/印/墨,其他国家会分批上线。关注 App 更新。
  • 语言覆盖与准确度:70+ 语言对话已可用;专业术语/口音极重时,建议复述 + 放慢
  • 学习与替代:AI 很强,但不能替代语言学习的文化与情感价值——想真正融入当地,还是要多听多说。

  • 打开 Translate → Live translate → 选语言 → 直接开聊
  • 打开 Practice → 设水平与目标 → 听力点词 / 口语引导 → 看每日进度。
  • Tap to Translate,聊天 App 里复制即翻。

这波升级,Google 把“会聊 + 会学”塞进了一个 App。 不管你是旅行、做外贸,还是备战交换生,现在就能少慌、多说、说对。 你打算先在哪个场景试一把?评论区聊聊你的“翻车或高光”瞬间

Claude Code 实战指南 1:CLI 常用命令选项

图形界面好用,但命令行更快、更稳、可编排。 Claude Code CLI 就是那把“顺手的刀”。 开个 REPL 聊天、管道一把梭、恢复历史会话、精细化权限……一行命令就行。

这篇文章,带你用最少的记忆成本,搞定日常 90% 的 CLI 用法。 能复制就不手打。能自动化就不手动。


  • REPL 模式claude 开聊,claude "…" 带着问题开聊。
  • 打印/管道模式-p 非交互,一次性出结果;配合 --output-format json/stream-json 可编排。
  • 会话管理-c 续聊最近;-r 选历史;--session-id 固定一个会话做长期任务。
  • 权限控制--permission-mode 精细开关,--allowedTools/--disallowedTools 白黑名单更稳。
  • 危险跳过--dangerously-skip-permissions 只在离线/沙盒用,线上坚决别开。

#1 REPL 模式:像终端里的“对话 IDE”

Section titled “#1 REPL 模式:像终端里的“对话 IDE””

最常用两种启动:

Terminal window
# 直接开 REPL
claude
# 带初始问题进入 REPL
claude "explain this project like I'm new here"

好用的小技巧:

Terminal window
# 连接唯一可用 IDE(有且仅有一个)
claude --ide
# 给系统提示加一段指令(不开配置文件也能临时生效)
claude --append-system-prompt "You are a careful code reviewer."

用法心法:临时探索、逐步重构、一步步跑通,REPL 很顺手。 配合 --model sonnet 或完整型号,切换模型同样丝滑。


#2 打印 / 管道模式:脚本化、一把过

Section titled “#2 打印 / 管道模式:脚本化、一把过”

核心就是 -p:从 stdin 读入 → 输出一次结果 → 退出。 适合脚本、CI、批处理。

Terminal window
# 单次问答
claude -p "explain this function"
# 处理文件内容
cat server.log | claude -p "summarize error patterns"
# 处理代码 diff
git diff | claude -p "write a clear PR description"

编排友好的输出格式:

Terminal window
# 机器可读
claude -p "summarize as JSON" --output-format json
# 实时流式 JSON(上游/下游都能流)
cat api.md | claude -p --input-format stream-json --output-format stream-json

组合拳示例(配 jq):

Terminal window
git diff | claude -p "summarize as JSON with keys: title, bullets" --output-format json \
| jq -r '"# \(.title)\n- " + (.bullets | join("\n- "))'

#3 会话管理:续聊、回溯、固化 ID

Section titled “#3 会话管理:续聊、回溯、固化 ID”

常用 4 连:

Terminal window
# 续聊最近一个
claude -c
# 续聊 + 一句指令后直接退出(非交互)
claude -c -p "Check for type errors"
# 选择历史会话(交互式列表)
claude -r
# 用会话 ID 恢复(支持非交互批处理)
claude -r "550e8400-e29b-41d4-a716-446655440000" --no-interactive "fix all linting issues"

固化会话 ID(做“长期项目管家”):

Terminal window
export CC_SID="12345678-1234-1234-1234-123456789abc"
claude --session-id $CC_SID "Keep maintaining the release plan"

实战建议:给每个长期任务固定一个 --session-id。上下文更稳定,历史更可追溯。


#4 权限模式:既要效率,也要边界

Section titled “#4 权限模式:既要效率,也要边界”

四种模式概念清晰:

Terminal window
# 默认模式:遇到风险行为会请求确认
claude --permission-mode default
# 只自动接受 “Edit” 类操作,写文件/改代码很顺
claude --permission-mode acceptEdits
# 计划模式:先出完整计划,再执行
claude --permission-mode plan
# 全面绕过权限(⚠️ 风险高,通常不建议)
claude --permission-mode bypassPermissions

非交互场景的“权限提示代理”(比如 CI 无法点确认):

让某个 MCP 工具来“代表你”处理权限提示。

Terminal window
claude -p --permission-prompt-tool mcp_auth_tool "run code review"

#5 危险跳过模式:只在离线/沙盒使用

Section titled “#5 危险跳过模式:只在离线/沙盒使用”
Terminal window
# 绕过所有权限检查(字面意思就很危险)
claude --dangerously-skip-permissions

什么时候可以用?

  • 本地无网络的沙盒容器
  • 演示/教学环境,只读文件系统或镜像快照可随时回滚。
  • 一次性临时环境,跑完就销毁。

什么时候别用?

  • 生产环境、含密钥的仓库、CI 写入真实资源。
  • 任何你不希望“自动执行 shell/写文件”的地方。

记一句:能不用就不用。真的要用,先隔离


#6 工具名称列表:白/黑名单更稳

Section titled “#6 工具名称列表:白/黑名单更稳”

精确控制哪些工具能被用,语法支持“子命令通配”。

Terminal window
# 允许:所有 git 子命令的 Bash、代码编辑器
claude --allowedTools "Bash(git:*), Edit"
# 禁止:所有 rm 子命令(哪怕允许了 Bash)
claude --disallowedTools "Bash(rm:*)"

CI 场景推荐: 仅开放必要编辑能力,封死危险命令。

Terminal window
claude -p \
--permission-mode acceptEdits \
--allowedTools "Edit" \
--disallowedTools "Bash(rm:*), Bash(curl:*), Bash(wget:*)"

#7 输入/输出格式:接上游、接下游,都优雅

Section titled “#7 输入/输出格式:接上游、接下游,都优雅”
Terminal window
# 输入文本、输出文本(默认)
claude -p "explain"
# 输入流式 JSON、输出流式 JSON
claude -p --input-format stream-json --output-format stream-json --replay-user-messages

--replay-user-messages 干嘛用? 在流式 JSON 管道里,把 stdin 的“用户消息”原样回放到 stdout,方便中间件对齐上下游事件流。


#8 进阶三件套:模型 / 目录 / 设置

Section titled “#8 进阶三件套:模型 / 目录 / 设置”
Terminal window
# 模型与回退
claude --model sonnet --fallback-model opus -p "explain the migration plan"
# 允许访问额外目录 & 指定工作目录
claude --add-dir ../apps ../lib --cwd ./apps/web
# 一把加载设置(文件或 JSON 字符串)
claude --settings ./cc.settings.json

示例 cc.settings.json

{
"verbose": true,
"maxTurns": 8,
"appendSystemPrompt": "Prefer clear diffs and small PRs."
}

Terminal window
# 开 REPL
claude
# 带问题开 REPL
claude "help write a release note"
# 单次问答(脚本化)
claude -p "explain this function" --output-format text
# 处理日志
cat logs.txt | claude -p "find top 5 recurring errors"
# JSON 输出给下游
git diff | claude -p "summarize as JSON" --output-format json
# 续聊最近
claude -c
# 恢复指定会话(非交互)
claude -r "550e8400-e29b-41d4-a716-446655440000" --no-interactive "finish the refactor"
# 固定会话 ID
claude --session-id 12345678-1234-1234-1234-123456789abc
# 计划模式(先出方案再执行)
claude --permission-mode plan
# 白名单工具(只允许编辑)
claude --allowedTools "Edit"
# 黑名单危险命令
claude --disallowedTools "Bash(rm:*)"
# ⚠️ 仅沙盒使用
claude --dangerously-skip-permissions

命令行的价值,就两点:可编排。 REPL 处理探索式任务,-p 负责自动化与流水线。 会话可追溯、权限可控、输出可编排,就能把 Claude Code 融进你的日常工程节奏。

愿你少敲十倍命令,多交付十倍结果。

你在用哪种组合最好用? 欢迎在评论区分享你的“命令流”,我会挑几条做成海报,送你一套 Vibe Coding 快速上手包。


  • 你更常用 REPL 还是 -p?为什么?
  • 你会在什么场景打开 acceptEdits
  • **有没有一条让你“直呼好用”的管道命令?**贴出来一起抄作业。

Claude Code 实战指南 1.5:Claude Code 会话管理继续接着聊

**教你用 --continue / --resume / --session-id / 非交互模式 四件套,稳定续上上一轮思考,把多任务协作与自动化玩明白。


写代码像健身——最怕中断。 昨天和 Claude Code 正聊到一半的重构方案,今天进来就忘了哪一步?多开几个任务就“串味”?脚本里跑两轮就丢上下文?

这篇就讲清楚:Claude Code 的会话(Session)怎么管,怎么一键续聊、精确点聊、并行多聊、脚本里接着聊。让你的 Vibe Coding 节奏不掉线。


你需要会话管理的 4 个真实场景

Section titled “你需要会话管理的 4 个真实场景”
  • 继续昨天的坑:直接接着上次那段对话继续推进。
  • 同时搞两条线:一个分支修 Bug,一个分支做新功能,互不干扰。
  • 脚本自动化:CI/脚本里多轮交互,不丢上下文。
  • 隐私与成本:会话本地保存与摘要成本心里有数。

1)最快速:继续最近的对话(--continue / -c

Section titled “1)最快速:继续最近的对话(--continue / -c)”
  • 命令:

    Terminal window
    claude --continue
    # 或
    claude -c
  • 用法心法:啥也不选,立刻续上“最近一次”会话,连环境都不用重配。

  • 小技巧:要在脚本里续上最近会话并输出结果:

    Terminal window
    claude --continue --print "继续刚才的重构,补齐单测"

    --print 等价 -p,走非交互输出)


2)更精准:恢复指定会话(--resume / -r

Section titled “2)更精准:恢复指定会话(--resume / -r)”
  • 交互式“会话选择器”:

    Terminal window
    claude --resume

    会弹出历史会话列表(开始时间 / 首条提示或摘要 / 消息数),方向键选择即可。适合一天切好几条线的同学。

  • 直接用 会话 ID 恢复:

    Terminal window
    claude --resume 550e8400-e29b-41d4-a716-446655440000 "把 API 抽象层改完"
    # 或
    claude -r 550e8400-e29b-41d4-a716-446655440000 "继续写集成测试"

    适合 脚本/自动化 精确点名。


3)脚本必备:拿到 session_id + 非交互多轮

Section titled “3)脚本必备:拿到 session_id + 非交互多轮”

思路:先启动一轮拿到 session_id,后续每步都用 --resume $sid 串起来。

Terminal window
# 第一步:起一个会话并抓 session_id(JSON 输出里自带)
sid=$(claude -p "开启重构会话:先列出风险点" --output-format json | jq -r '.session_id')
# 第二步:多轮非交互续写
claude -p --resume "$sid" "按照上一步计划,先改 utils/date.ts"
claude -p --resume "$sid" "补充 ts-jest 配置与单测样例"
  • 关键点:--output-format json 的返回体里包含 session_id 字段;也可用 --no-interactive 配合 --resume 做纯非交互续写。

⚠️ 排雷:有开发者反馈,在非交互里反复用 --continue 可能会生成新的 session,导致上下文“看着像合上了”,其实换了 ID。自动化建议固定用 session_id + --resume


4)在 REPL 里也能选:/resume 指令

Section titled “4)在 REPL 里也能选:/resume 指令”

进入交互 REPL 后,直接敲:

/resume

就能列出会话并恢复。这个入口与 --resume/--continue 同源,触发同一套 SessionStart/Resume 逻辑。 (Hooks 文档里明确写了 resume 匹配来源:--resume--continue/resume

顺手再记两个常用键:

  • Esc Esc:编辑上条消息
  • ↑ / ↓:翻阅本会话历史 用来微调上一轮提问,贼高效。

并行不串台:用 Git Worktree 隔离多会话

Section titled “并行不串台:用 Git Worktree 隔离多会话”

同时推进“修 Bug”和“开新功能”?用 git worktree 把仓库拉成两个工作目录,在各自目录里分别开 Claude Code,上下文天然隔离

Terminal window
git worktree add ../proj-feature-a -b feature-a
git worktree add ../proj-bugfix bugfix-123
cd ../proj-feature-a && claude
cd ../proj-bugfix && claude

官方工作流里强推这招,会话和文件状态互不影响


隐私 & 成本:会话保存与摘要消费

Section titled “隐私 & 成本:会话保存与摘要消费”
  • 本地保存:客户端会将会话在本地保留(默认可配置,常见上限 30 天),用于 --resume。企业合规可以设为零数据保留。
  • 后台摘要:为了让 --resume 有“可选列表”和摘要,Claude Code 会做后台会话摘要,这会产生少量 Token 开销。

Bash 版多轮模板

Terminal window
# 开会话并保存 ID
sid=$(claude -p "准备发布:生成变更清单" --output-format json | jq -r '.session_id')
# 后续步骤都续这个会话
claude -p --resume "$sid" "生成 release note,中文+英文"
claude -p --resume "$sid" "检查 CI 失败原因并给出修复命令"
claude -p --resume "$sid" "最后输出 checklist.md"

--print/-p 非交互;要强制非交互也可 --no-interactive

交互式快速入口

Terminal window
# 最近一次
claude --continue
# 选择历史
claude --resume
# 在 REPL 里
/resume

进阶:把会话钩到团队工作流(可选)

Section titled “进阶:把会话钩到团队工作流(可选)”

如果你在项目里配了 Hooks,例如 SessionStart/SessionEnd恢复会话时也会触发。这意味着你可以在恢复瞬间自动加载最新 issue、变更摘要或安全检查


会话管理不是“锦上添花”,而是让灵感不断档的底层设施。 把 --continue 用在临时续聊,把 --resume + session_id 用在长期、可回放的任务,用 worktree 做物理隔离,再把这套搬进脚本,你的 Vibe Coding 就会从“灵感速写”进化到“可复盘的创作流水线”。

你觉得呢?你现在最需要哪种会话管理姿势?评论区见。

Claude Code 实战指南 1.10:用 claude code --permission-prompt-tool 把权限“外包”给你的 MCP 工具


是不是常被权限弹窗打断思路? 想把 Claude Code 放进 CI/CD、夜间批处理、远程容器里跑,又不敢开“全放行”?

答案就是这个开关:--permission-prompt-tool 它把“是否允许用某个工具”的决定,交给你指定的 MCP 工具 来做。支持按需审批、审计留痕、条件放行,还能跑在纯命令行的无人值守模式。CLI 文档里明确写了它的用途:在非交互模式下由 MCP 工具处理权限提示。**

权限顺序也很清楚:先看 settings.json / --allowedTools / --disallowedTools。有结论就直接执行或拒绝。否则才调用你传入的 --permission-prompt-tool 官方 SDK 文档给出了完整流程与返回格式要求。**


  • 它是什么:一个把“是否放行工具调用”的决定交给 MCP 工具的桥。适合自动化、无人值守、安全合规。**
  • 怎么判定:静态规则优先(settings/allowed/disallowed),没命中才调用你的权限代理。返回 allow/deny 的 JSON。**
  • 最佳场景:CI/CD、批处理重构、远程容器/Server、IDE/插件联动、企业级合规审计。**
  • 对安全团队的意义:可审核、可记录、可细粒度放行,符合 IAM + 最小权限 思路。搭配 MCP 白名单更稳。**

把“要不要放行这次工具调用”的问题,转发给你指定的 MCP 工具。 这个 MCP 工具可以接入审批、黑白名单、时段策略、Slack 人工确认、风控打分……你来定规则。CLI 与 Headless 模式都支持这一机制。**

Claude Code 的三层权限检查机制:

先检查这些预设的权限规则

  • settings.json 文件中的配置
  • 命令行参数 --allowedTools
  • 命令行参数 --disallowedTools

如果第一层有明确答案 → 直接执行或拒绝 如果第一层没有规则 → 进入第三层

调用你指定的 MCP 工具来做决定 --permission-prompt-tool your_custom_tool

假设 Claude 要执行 Write 工具修改文件:

情况1:静态配置已决定

settings.json
{
"allowedTools": ["Write", "Read"]
}

结果:直接允许,不调用 MCP 工具

情况2:静态配置禁止

settings.json
{
"disallowedTools": ["Write"]
}

结果:直接拒绝,不调用 MCP 工具

情况3:静态配置无规则

settings.json
{
"allowedTools": ["Read"]
// 没有关于 Write 的规则
}

结果:调用 —permission-prompt-tool 指定的 MCP 工具询问

用代码逻辑表示

def check_permission(tool_name):
# 第一层:检查静态配置
if tool_name in settings.allowedTools:
return True # 直接允许
if tool_name in settings.disallowedTools:
return False # 直接拒绝
# 第二层:没有明确规则,调用 MCP 工具
if permission_prompt_tool:
return permission_prompt_tool.ask_permission(tool_name)
# 默认行为(通常是询问用户)
return prompt_user(tool_name)

企业环境:大部分工具预先配置,特殊情况动态审批

Terminal window
claude code --allowedTools "Read,Grep,LS" \
--disallowedTools "Bash:rm,Bash:sudo" \
--permission-prompt-tool enterprise_approver \
"analyze codebase"
    1. Claude 想用 Read → 静态允许 ✅
    1. Claude 想用 Bash:rm → 静态拒绝 ❌
    1. Claude 想用 Write → 没有规则,调用 enterprise_approver 询问 ❓

这种设计的好处是:

  • 性能:常用工具静态配置,快速决策
  • 灵活性:特殊情况可以动态处理
  • 安全性:默认拒绝,明确授权才能使用

  • 诉求:流水线里跑代码修改、测试修复、生成报告,不想被权限卡住。
  • 做法
Terminal window
claude -p "fix flaky tests and commit" \
--allowedTools "Read,Grep" \
--disallowedTools "Bash(rm*),Write" \
--mcp-config ci-tools.json \
--permission-prompt-tool mcp__sec__approval_prompt \
--output-format json
  • 效果:凡是静态规则没覆盖的调用,交给 mcp__sec__approval_prompt 远程审批。流水线不中断。**
  • 诉求:夜间批量改文件、跑格式化、生成迁移 PR。
  • 做法:把“对关键路径的编辑”设为需审批,其余静态放行。发生变更时自动记录审计日志。
  • 依据:工具级/路径级细粒度规则可以在 IAM 里定义,如 Edit(docs/**)Bash(npm run test:*)。**
  • 诉求:没有交互 UI 的 Docker/SSH 环境也能安全放行必要操作。
  • 做法:在 Headless(非交互)模式下启用权限提示工具:
Terminal window
claude -p "build and publish image" \
--permission-prompt-tool mcp__guard__prompt \
--mcp-config /etc/mcp/servers.json
  • 来源:Headless 文档明确标注 --permission-prompt-tool 只在 --print 非交互模式下生效。**
  • 诉求:把 IDE 里的审批弹窗交给一个 GUI 代理或 Slack Bot,让同事点“允许”。
  • 做法:MCP 工具弹出 GUI 或发 Slack 卡片,点击后回传 allow/deny
  • 安全补充:MCP 服务器要可信、可审计,符合团队安全策略。**

工作原理(官方机制落地翻译)

Section titled “工作原理(官方机制落地翻译)”
  • 优先级:先检查 settings.json 与命令行的 --allowedTools / --disallowedTools。能决策就直接放行或拒绝;否则再调用你传入的 MCP 工具。**

  • 返回格式(必须 JSON 字符串)

    • 允许:

      {"behavior":"allow","updatedInput":{...}}
    • 拒绝:

      {"behavior":"deny","message":"..."}
    • updatedInput 可把人机协作后的新输入回传给模型(比如人工修改过的 diff)。**


const server = new McpServer({ name:"sec-approval", version:"0.0.1" });
server.tool(
"approval_prompt",
"Return allow/deny for tool use",
{ tool_name: z.string(), input: z.object({}).passthrough() },
async ({ tool_name, input }) => {
const allow = await riskCheck(tool_name, input); // 你的风控逻辑
const payload = allow
? { behavior: "allow", updatedInput: input }
: { behavior: "deny", message: "Policy denied by SEC team" };
return { content: [{ type: "text", text: JSON.stringify(payload) }] };
}
);

启动:

Terminal window
claude -p "migrate configs safely" \
--allowedTools "Read,Grep" \
--disallowedTools "Bash(rm*),Write" \
--mcp-config security-tools.json \
--permission-prompt-tool mcp__sec-approval__approval_prompt

Headless + CLI 的用法与参数对照见官方文档。**

async def approval_prompt(tool_name: str, input: dict):
ok = policy_match(tool_name, input)
if ok:
return json.dumps({"behavior":"allow","updatedInput":input})
return json.dumps({"behavior":"deny","message":f"Denied {tool_name}"})

官方 SDK 文档也给出了 Python/TS 的结构与字段要求。**


  • --dangerously-skip-permissions粗暴跳过所有提示,官方明确“谨慎使用”。**
  • --permission-prompt-tool可控可审计可扩展,符合企业安全与合规。还能按目录/命令做细粒度规则,如 Bash(npm run test:*)Edit(docs/**)。**

最佳实践清单(企业可直接落地)

Section titled “最佳实践清单(企业可直接落地)”
  1. 三层权限静态规则优先(settings/allowed/disallowed)→ MCP 代理兜底默认拒绝。**

  2. MCP 白名单: 仅连接受信任的 MCP 服务器,并通过仓库内的配置纳管。**

  3. 细粒度匹配: 用 Bash(…)Edit(…)mcp__servermcp__server__tool 做精确授权;MCP 不支持通配符。**

  4. 审计与回放: 在权限代理里落日志、打审计标签,配合 --output-format json 保存流水。**

  5. 风险隔离: 可在容器/DevContainer里运行,减少误操作影响面。**


  • 工具名写法不对:MCP 名称是 mcp__<server>__<tool>,只写 mcp__<server> 代表允许该服务器所有工具。通配符不支持。**
  • 在交互模式里期望它也弹:该开关主要用于 --print 的非交互模式。**
  • 把它当万能钥匙:基础权限请放在 settings / allowed / disallowed 里,减少调用次数与网络风险。**
  • 忽视 MCP 安全:第三方服务器要审慎评估、最小权限接入。**

允许常用只读 + 拒绝危险命令 + 权限代理兜底

Terminal window
claude -p "refactor and open PR" \
--allowedTools "Read,Grep,LS" \
--disallowedTools "Bash(rm*),Write" \
--mcp-config team-mcp.json \
--permission-prompt-tool mcp__approver__prompt \
--output-format json

按命令粒度放行

Terminal window
claude -p "run tests" \
--allowedTools "Bash(npm run test:*),Read" \
--permission-prompt-tool mcp__approver__prompt

以上参数与权限模式、工具匹配写法,均见官方 CLI / IAM / Headless 文档。**


--permission-prompt-tool 不是单个开关,而是**企业级“权限中台”**接口。 你可以把风险判断、人工审批、操作留痕,全部塞进一个 MCP 工具里。 自动化不必冒险,效率与安全两手都要硬。

你觉得这样的权限设计,够满足你们的合规要求吗? 欢迎在评论区聊聊你想怎么接 Slack/飞书/工单系统做“点一下才放行”。

Claude Code 值得谁用?不同角色眼中的 Claude Code:Vibe Coding 体验与应用场景分析

近年来 AI 编程助手层出不穷,其中 Anthropic 的 Claude Code(简称 CC)以“终端里的智能编程工具”定位引发关注。

所谓 Vibe Coding,指的是借助这类 AI 工具快速把脑海中的想法转化为代码,实现一种高速迭代、灵感驱动的编程体验。

本文通过调研不同类型用户对 CC 的使用反馈,分析这些现象背后的原因,并总结 Claude Code 在 Vibe Coding 场景下的最佳用例。
同时,我们也将 CC 与其他同类工具(如 Cursor、GitHub Copilot、OpenAI Codex CLI、Cursor CLI、Google Gemini CLI 等)进行对比,看看各自的优劣与适用场景。


不同背景的用户在使用 CC 进行 Vibe Coding 时感受差异明显:

1. 零编程基础的用户:举步维艰

Section titled “1. 零编程基础的用户:举步维艰”
  • Claude Code 并非“一键生成应用”的万能神器。它要求用户能用自然语言清晰描述需求,才能据此**“制定计划、编写代码并确保其正常工作”**
  • 完全不懂代码的人难以提供有效的指令,也无法判断生成代码的对错,因而“基本玩不转”。
  • CC 主要在终端中运行,需要一定的开发环境和命令行经验,这对小白来说门槛不低。
  • 这类用户认为 CC 的价值**“有限”**,自行编写代码更安心可靠。
  • CC 虽能用于“调试和修复问题”,通过分析代码库找 bug 并补丁,但实际效果仍需人工审核。
  • 其权限机制每一步都需用户批准(可开启 Yolo 模式 跳过确认),反而显得低效。
  • CC 仍处于测试阶段,不够稳定
  • 因此资深开发者更愿意将其作为辅助,而不会完全依赖。
  • 相比之下,PM、创业者和 CEO 则称其为“终于能快速落地脑中点子的神器”。
  • 许多**“不好意思请团队做”**的创意,现在能用 CC 自行尝试实现,例如:
    • 个性化信息流应用
    • 笔记工具
    • Apple Watch 数据解析小 App
    • 个人网站
  • 在企业内部,CTO 们用 CC 为旧系统做 LLM 改造,嵌入智能客服或推荐系统。
  • Intercom 的案例:Claude Code “让我们能够构建之前没有精力顾及的应用—from AI 数据标注工具到销售团队用的 ROI 计算器”

Claude Code 在内部系统集成中的应用

Section titled “Claude Code 在内部系统集成中的应用”
  • CC 擅长**“自动化繁琐任务”**,如修复 lint、解决合并冲突、生成发布说明

  • 能快速生成 API、数据库、文件系统的整合代码,试验效率高。

  • 可快速生成接入 LLM 的接口代码,把自然语言能力封装进现有系统。
  • 例如:内部知识库对话机器人、CRM 智能推荐模块。
  • CC 能**“保持对整个项目结构的感知”,甚至通过 MCP 拉取 Google Drive、Figma、Slack 数据**

👉 定位:加速器,而非完整替代品。最终仍需结合监控测试与成熟架构打磨。


  • LLM 属于概率预测,难保证每次结果准确。

  • 在全局变量重命名等任务上,“让 IDE 自带的重构功能来做更靠谱”

  • 社区反馈:CC 在 Swift/iOS 的表现不如前端

  • 总体而言:适合作为辅助工具,不适合完全自动化生成商业级软件。

  • 个人订阅尚可,但企业级使用成本过高。

  • 官方数据:平均每人每天 ~$6,美金,团队使用 Sonnet 4 模型人均月费可达 $100~200

  • 定价模式:Pro ~$17/月,Max 最高 $200/月

  • 结论:个人开发没问题,但做产品/服务时,API 成本难以承受。


Claude Code 适合的 Vibe Coding 使用场景

Section titled “Claude Code 适合的 Vibe Coding 使用场景”
  • 创意原型 & 个人项目:快速搭建小型应用、算法原型或验证脚本。

    • 可在数分钟内生成数百行代码
  • 复杂代码库理解与重构:分析逻辑、绘制架构图、提出全局改造方案

  • 日常开发提效 & 自动化:自动生成测试/文档、修正格式、从 Issue 到完整补丁提交

👉 最佳实践:“人 + AI 协作”。人把控方向,AI 提速执行。


工具特点优势场景局限
Claude Code终端智能代理,复杂推理深度调试、大型代码库、创意原型成本高,可靠性不足
GitHub CopilotIDE 插件,代码补全日常小步编码不能全局规划,难支持 0→1 开发
Cursor 编辑器VS Code 增强版IDE 用户友好,前端开发Agent 模式笨重,稳定性一般
Cursor CLI命令行版,跨模型灵活,支持 Anthropic/OpenAI/GoogleBeta 阶段,稳定性不足
OpenAI Codex CLI终端 AI 代理,多模态调试、自动执行、开源灵活尚在演进,代码质量略逊
Google Gemini CLI免费开源,百万 Token大项目、低预算、广泛任务社区未成熟,推理深度略弱

  • 适合人群
    • 有一定技术背景的 PM / CEO / 创业者:快速落地创意。
    • 开发团队:内部集成、实验 LLM 化。
  • 不太适合
    • 完全零基础用户(门槛太高)。
    • 对稳定性和精度要求极高的资深架构师(更适合当辅助)。

Claude Code 并非万能,但在 Vibe Coding 的舞台上,它让更多点子能从脑海走向现实。未来谁能在成本与可靠性上找到平衡,谁就可能成为这场 AI 开发力革命 的最大赢家。


没必要争论 Claude Code:应该把团队的分歧变成协作

Claude Code 正把“少写代码、多做事”的老趋势推到极致。写代码只是工程的一小部分,而对话与协作能让“门外汉”和工程师把 Unknown Unknowns 变成 Known Unknowns,真正把 Claude Code 用出生产力。


最近一条讨论火了:有人说 LLM 让“门外汉”也能上手写点软件;专业工程师反驳:软件工程不是只写代码,更重要是需求、架构、集成与长期维护。两边都没错,只是站位不同。这场争论的背后,其实是行业几十年来少写代码”的一条主线**,而 Claude Code 正把它推向下一阶段。


软件圈一直在减少机械劳动:

  • Rails 脚手架:一条命令生成 MVC,原型飞快起步。
  • Protocol Buffers:跨语言高效通信,少写重复序列化代码。
  • Scala implicits / given:用类型系统消除样板,减少胶水代码。

LLM 只是这条路的延长线:让我们写更少的代码、完成更多工作。但“工程”的部分从没消失。


二、Claude Code 到底改变了什么?

Section titled “二、Claude Code 到底改变了什么?”
  • 在终端工作,不是另一个聊天窗
  • 会直接动手:编辑文件、运行命令、创建 commit;
  • 能接入外部系统(MCP 读设计文档、改 Jira、使用自定义工具)。

而且它还把自动化搬进 CI/CD:GitHub Actions 支持在 PR/Issue 里 @claude,自动做代码审查、开分支、提修复。

更现实的是,企业版推广正在发生——团队可以分配 Claude/Claude Code 的标准或高级席位,集中管理与度量。


三、为什么“门外汉”感觉特别爽?

Section titled “三、为什么“门外汉”感觉特别爽?”

因为这次 AI 真的给了非工程师一个可用的接口

  • PM 能用自然语言拉起原型,更早发现歧义;
  • 运营、设计能直接改小功能/写脚本,不必层层排期。

媒体也在观察这一趋势——“Vibe Coding” 的讨论升温,Notion 等公司实践“对着 AI 编程”,记者亲身去“配对编程”,两天就能改 UI 小功能、做小特性。

“Vibe Coding”一词最早在 2025 年初走红,被总结为更靠近意图、少盯代码的开发范式。


长期性与可控性

  • 架构边界、数据契约、性能预算、可观测性……这些都不是“写两段代码”能解决的。
  • 测试与验收需要明确化。比如用 Cucumber/Gherkin 把业务语言写成可执行验收用例,团队都看得懂,也方便让 AI 参与生成与维护。

换句话说:AI 能帮我们少写代码,但工程的“组织与约束”必须更强。


五、两类常见误解(来自那条讨论)

Section titled “五、两类常见误解(来自那条讨论)”
  1. 把编程当成“写代码”本身
  2. 以为自己借助 AI 拼出来的小应用,就代表了行业软件形态,因此行业会被替代

这两点,在初级程序员身上也常见。经验会让人明白:软件工程的核心,是“工程”。


六、别吵了,来一套“协作剧本”

Section titled “六、别吵了,来一套“协作剧本””

目标:把 Unknown Unknowns 变成 Known Unknowns。下面这套最小闭环,团队今天就能落地。

  • 写 5 条 Gherkin 验收(Feature / Scenario),由 PM/业务主笔,工程师把关可测性;
  • 让 Claude Code 读这些 .feature,生成最小实现草稿与测试骨架。
  • 让它生成原型与改动 PR,但把合并权放在负责人手里;
  • 对关键模块加“守门规则”:必须过基准测试/性能预算才可合并。
  • 在 GitHub Actions 配置:新 Issue/失败的 CI/特定标签 自动触发 @claude 建议或修复;
  • 让它写风险说明回滚方案模版,减少合并焦虑。
  • 通过 MCP 让 Claude 读取设计文档与技术决策记录(ADR)
  • PR 必须同步更新 ADR/接口契约(Proto/JSON Schema),“代码-契约-测试”三件套保持一致。
  • 每周一次人机联席 Code Review:列出“AI 盲点清单”;
  • 对“AI 贡献的变更”单独看故障率与回滚率,用数据决定使用边界。

让“门外汉”参与,是好事:他们更靠近业务,更敢于从 0 到 1。让工程师主导“边界与约束”,是必要:系统才跑得久、跑得稳。吵不出结论,协作才能跑通闭环。

下一步:把你们产品里一个 3~5 天的小需求,按上面“协作剧本”走一遍。做完复盘,再决定 Claude Code 的“开闸力度”。

川普改造美联储:市场究竟担心什么?

美国总统川普近期不断挑动美联储的神经。一方面,他在公开场合要求美联储主席鲍威尔尽快降息,甚至扬言“鲍威尔越早走人越好”;另一方面,川普已经提名白宫经济顾问委员会主席斯蒂芬·米兰(Stephen Miran)出任美联储理事,并通过社交媒体宣布即刻罢免美联储理事丽莎·库克(Lisa Cook)。此种史无前例的连番举措立刻引发市场震荡:投资者抛售了美国股票、债券和美元,金价纷纷飙升;与此同时,美联储“独立性”受损的担忧不断升级。

美联储“独立性”:相对而非绝对

Section titled “美联储“独立性”:相对而非绝对”

严格来说,美联储的独立性是相对的、逐渐形成的制度安排。虽然如今我们习惯将美联储视为不受政府短期干预的“钢铁长城”,但历史上并非如此:美联储正式独立要到1951年才实现,而且直到1980年代沃尔克担任美联储主席时通过高利率遏制恶性通胀,美联储独立性的声誉才真正树立。分析指出,川普对美联储官员的持续攻击正成为数十年来对央行独立性最大的挑战——央行独立性一直被视作抑制通胀、维护全球金融稳定的关键。不过,观察人士认为,这次事件最终的影响还要看结果本身:只要美联储能继续维持经济稳定、控制好通胀,市场可能逐渐接受新的政策组合;一旦政策放松过度、出现通胀或债务危机,市场就会以加大风险溢价来作出惩罚。

今年4月,川普在社交媒体上再度向鲍威尔施压,要求美联储立即降息,并称“鲍威尔行动太慢,越早走人越好”。川普的这些言论令市场大为不安——报道称,投资者担心川普将解雇鲍威尔,纷纷抛售美国股票、美债和美元,导致市场短期剧烈波动。然而,鲍威尔本人也多次表态,美联储不会屈从政治压力,降息决策仍以抗通胀为主。

8月7日,川普正式提名斯蒂芬·米兰(Stephen Miran)出任美联储理事。米兰被认为是川普新一届政府贸易政策的重要策划者,在政策观点上偏鹰派,主张更迅速地降息刺激经济。分析称,此前川普在七人理事会中已有2位同调者,如果再成功补入米兰,川普阵营将可能掌控美联储理事会的多数席位。财政部长贝森特(Scott Bessent)在接受采访时也直言,川普将很快拥有美联储理事会多数席位,这“将改变美联储的话语权”。这意味着未来货币政策立场可能更加偏向川普的意愿。

8月25日深夜,川普在其社交媒体上发布公开信,宣布“立即”撤销库克的美联储理事职务。库克是拜登提名的首位非洲裔美联储理事,按规定任期至2038年。川普信中指责库克在申请房贷时虚报住所等罪名,声称已有“充分理由”将其罢免。这是美联储百余年历史上首次有理事被总统罢免的先例,库克方面已表示将通过法律途径坚决抗争。分析人士指出,总统虽有权罢免Fed理事,但法律要求“正当理由”,不能仅凭政治分歧;换言之,即便此举引发宪法争议,最终成败仍可能通过司法程序决定。

市场担忧:避险情绪与实际风险

Section titled “市场担忧:避险情绪与实际风险”

川普上述动作令市场短期惊慌,但更深层的担忧在于:未来货币政策走向是否偏离其原本使命?投资者真正关心的,是美联储在新格局下能否继续控制通胀、保持经济增速,而不仅仅是“独立性”这一个口号。近期多家机构都提醒,若市场预期美联储降息过猛,反而会削弱央行抗通胀的公信力。事实上,当下美国仍处于高债务、潜在通胀风险下——关税政策可能抬高物价、财政赤字持续发行新债、再加上潜在的新一轮减税或刺激措施,都可能推高经济的中长期借贷成本。因此,即便短端政策利率下降,市场多有观点认为长期利率不降反升:投资者担忧,一旦美联储独立性受损、过度降息,大幅扩张性货币环境最终会推高通胀预期与债券收益率。正如一家投顾指出:“更廉价的资金会助推经济和美元走弱,但同时显著推高通胀”。

在债市上,这种担心尤为明显。近期2年期与30年期美债收益率之差已经跃升至2022年初以来高位,表明投资者一面看好短期政策放松、短端利率下行,一面担心长期通胀回升、要求更高溢价。汇率方面,8月底川普行动宣布后,美元指数也出现下跌。市场分析认为,只要美国仍旧位居全球领导地位,美元和美债作为储备资产的地位不会轻易动摇,但如果政策冲击加剧,短期避险抛售也在情理之中。此外,信用评级机构标普和穆迪近期已警告,如果美联储的独立性遭到“严重破坏”,美国主权信用评级可能面临下调,这将进一步推高美国政府融资成本。

短期来看,川普的激烈表态和举措确实加剧了市场的谨慎情绪。股债汇市场出现了“冰火两重天”:股指期货微跌,多空博弈加剧;美元和中长期美债收益率波动加大。但也有人认为,这种急躁的政策操作未必会持续。特朗普历来言行有时“言过其实”——早在4月他声称会解雇鲍威尔后不久就反口说“无意解雇”;同样,此次对库克的行动也可能在司法挑战下面临变数。此外,贝森特等理性派人士的存在,意味着未来政策方向未必完全出乎意料。换句话说,虽然川普政府正试图往联储理事会里安插“忠诚派”,但市场往往最终还是看结果:如果这些变动能够真正提振美国经济、降低债务负担,宽松的货币政策至少在短期内也会推高风险资产;反之,一旦通胀或债务问题失控,则会迅速被市场所惩罚。正如摩根士丹利所言,市场最看重的,是经济基本面和政策的效果,而不是政治风声本身。

综上所述,市场对川普“改造”美联储的反应分为两个层面:一是对美联储独立性暂时受损的担忧,包括信用评级和长债收益率上升的风险;二是对政策最终效果的关注,即看这些“新面孔”能否稳住通胀、刺激增长。短期震荡不可避免,但只要美国经济基本盘稳健、财政政策有配合,全球风险资产并不会轻易丧失吸引力。后续仍需关注美联储官员的人事变动进程以及美国财政状况演变,因为真正左右市场走向的,终究是经济基本面和结果,而非单一事件。

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

期待今晚英伟达二季度财报公布

随着AI热潮持续,英伟达(NVIDIA) 也备受瞩目。今晚美股盘后,英伟达将公布二季度财报。结合台积电、富士康、京元电等供应链对AI服务器需求的预示,市场普遍预期成绩依旧强劲。投资者最关心的核心要点包括:

  • 毛利率:英伟达能否借产品组合优化和成本杠杆效应,让非GAAP毛利率重回约75%的水平?
  • 新品周期:Blackwell Ultra(B300系列)GPU产能爬坡情况如何?下一代“Rubin”架构何时登场?
  • 中国市场:针对中国市场的H20产品影响有多大?是否会有新版中国特供芯片推出?
  • 财报指引:管理层给出的三季度及全年指引是否强劲?此前英伟达已开始偏保守地引导预期,这次会怎样?指引强弱决定市场对AI主线的信心和短期股价走势。

下面我们逐一分析这些问题。

2023年底到2024年初英伟达的非GAAP毛利率曾在76%-79%之间高位盘整(Q4 FY24-Q1 FY25分别为76.7%、78.9%)。进入2024年下半年以后,随着产品组合变化,毛利率出现回落:Q2 FY25约75.7%,Q3 FY25回到75.0%,Q4 FY25降至73.5%。今年第一季度(Q1 FY26),由于中国市场H20库存冲击,非GAAP毛利率骤降至61.0%。

事实上,公司财报指出,如果剔除这次H20库存减记,一季度非GAAP毛利率本应约71.3%。

市场预期本季毛利率会有所修复。根据财报展望,英伟达预计Q2财季非GAAP毛利率约为72.0%(GAAP毛利率71.8%)。管理层表示将持续努力,年内争取让毛利率回升到约75%的中高位水平。从以上数据看,若本季业绩符合预期,毛利率曲线将出现V型回升趋势,但要达到75%仍需留意高配GPU供给和成本控制进展。因此,市场将密切关注财报中对产品组合、库存及成本项目的说明,以及全年毛利率指引。

产品线:Blackwell Ultra加速,Rubin蓄势

Section titled “产品线:Blackwell Ultra加速,Rubin蓄势”

英伟达CEO黄仁勋已确认,Blackwell Ultra(代号B300系列)仍在稳步放量。行业报道称,黑白(Blackwell)超算加速卡将在今年下半年推出,性能比现有产品大幅提升。同时,他表示“下一代(GPU)被称为Rubin”,合作伙伴已经在为Rubin架构做准备。换言之,未来两年内数据中心GPU将经历从Blackwell到Vera Rubin的换代。

对投资者来说,本次财报发布后,重点会看B300系列产品产能情况,以及公司是否提及未来Rubin GPU的开发进展等。上述路线图显示,Rubin平台将在2026年推出8堆栈HBM4显存版,到2027年进一步扩展到12堆栈版。如果英伟达提到Rubin的里程碑或试产进展,也将被市场视为前瞻信号。总的来说,只要Blackwell Ultra供货加快、Rubin前景明朗,就能进一步巩固公司在AI硬件赛道的领先地位。

中国市场一直充满不确定性。今年4月,美国出台新管制令,暂停向中国出口英伟达最新高端GPU,使面向中国设计的“H20”版本暂时停产。根据报道,8月22日有消息称英伟达已通知相关供应商暂停H20产品生产。英伟达随后回应称,这只是正常供应链调整,并重申H20并非军用产品,中国有足够国产芯片满足需求。

据了解,H20芯片是特别针对中国市场的版本,2024年曾大规模出货。初期版本搭载96GB HBM3显存,带宽达4.0TB/s;后期升级为141GB显存,NVLink带宽900GB/s,FP16算力高达148TFLOPS。不过今年4月禁令生效后,H20交付被迫中断。直到7月黄仁勋访华前后,美国才重新批准H20芯片出口许可,生产和出货有望恢复。但需注意,此次开放需要向美方报备用户清单等,仍给客户带来顾虑。

有业内传闻称,英伟达正计划推出一个针对中国的新“特供”芯片,代号可能是B30A。这款芯片据传算力约为主线Blackwell产品的一半。如果这一消息属实,说明英伟达试图用性能折衷的方案满足中国市场需求,同时应对出口限制。市场将密切关注财报中对中国市场出货量和产品组合的描述,以及是否有类似信息发布。总体而言,中国的不确定性可能让英伟达暂时对中国市场指引更为谨慎,这也是本次财报需重点留意的风险点之一。

对于英伟达这样的成长股,最重要的信号之一是未来指引:公司对下季度及全年的预估。过去一年中,由于市场对AI景气极度乐观,英伟达已多次开始使用“预期管理”策略,给出相对保守的指引以降低市场期待。2024年Q2之后每次财报都出现过类似情形。

今晚财报后的指导内容尤为关键。一方面,如果公司对第三季度及全年的营收和毛利率做出强劲指引,表明AI需求依旧旺盛,市场信心将增强;另一方面,如果指引显得保守,则可能短期打压股价。特别是在中国市场受限的大背景下,英伟达可能会在财报电话会议上谨慎看待短期业绩。投资者将密切聆听管理层对下半年的需求状况、库存清理程度以及研发投入的展望。

目前可参考的是一季度财报中对Q2的指引:营收预计45亿美元上下(已剔除约80亿美元的H20损失),非GAAP毛利率约72%。未来几个季度是否能接近此前预期的“75%毛利率”和持续翻番的营收增速,将是市场聚焦的焦点。如果指引相对稳健或高于预期,可视作AI趋势的延续;如果偏低,则需警惕短线波动。

投资展望:财报后股价大概率走高

Section titled “投资展望:财报后股价大概率走高”

综合来看,英伟达二季度业绩很可能符合或略超市场预期,主要受益于数据中心AI加速需求的爆发式增长。毛利率只要达到指引水平,供应链紧张的问题正在缓解,公司也在积极扩产Blackwell Ultra,未来生态布局持续深化。从长期看,AI需求并未见顶,黄仁勋也明确表示公司规划已经超前进入Rubin时代,这意味着增长动能仍在持续累积。

虽然中国市场不确定性和指引保守可能导致短期股价波动,但考虑到英伟达在AI硬件领域的龙头地位以及产业升级大趋势,市场对其前景整体仍保持乐观。综合各方信息判断,此次财报后,英伟达股价大概率继续走高,投资者可以关注财报公布后的买入机会。结合基本面和技术面,不少分析师仍给出看多评级,认为只要业绩达到预期、指引稳定,股价有望刷新历史高点。

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

用 Claude Code + GitHub Actions,把 @claude 变成你团队的自动化同事

在 PR、Issue、计划任务里直接 @claude,它会按你仓库的 CLAUDE.md 规范自动审代码、修 Bug、写功能,还能发日报。零服务器运维负担,直接跑在 GitHub 托管 runner 上。


你有过这种体验吗? PR 堆成山,代码审不过来;Issue 描述很清楚,但没人愿意先动第一刀。

现在用 Claude Code 的 GitHub Actions,一句 @claude 就能把这些“机械重复但又必须做”的活交出去。 它会读取上下文、遵循你的项目规范、自动创建或更新 PR,甚至给出实现方案。


  • @claude 即用:在 PR、Issue 评论区点名即可触发,支持「交互式回复」或「自动执行」两种模式,v1 会自动识别触发方式。
  • 跟你团队的规范对齐:根目录放一份 CLAUDE.md,写清代码风格、评审规则、常用模式;Claude 执行时会遵循它。
  • 多云选型:既可直连 Anthropic API,也可走 AWS Bedrock / Google Vertex AI,更好满足企业合规与计费策略。
  • SDK 可扩展:官方 Claude Code SDK 支持 Headless/TS/Python,多语言业务都能把“会写代码的 Agent”嵌入工作流。
  • 无需自搭基础设施:默认用 GitHub 托管 runner,减少部署成本;私有仓库会计入 Actions 分钟数,公有仓库免费。

  1. 在终端打开 claude,执行命令:/install-github-app
  2. 根据引导完成 GitHub App 安装与 ANTHROPIC_API_KEY 机密配置。
  3. 在仓库评论中 @claude 测试一次。

如果走不通,也可 手动安装:安装官方 GitHub App → 仓库里添加 ANTHROPIC_API_KEY → 拷贝 examples/claude.yml.github/workflows/

B. 从 Beta 升级到 v1(有破坏性变更)

Section titled “B. 从 Beta 升级到 v1(有破坏性变更)”
  • 动作版本:@beta@v1
  • 删除 mode: 配置(v1 自动识别触发模式)
  • direct_prompt 改为 prompt
  • CLI 选项移动到 claude_args(如 --max-turns--model--system-prompt 等)

最小可用工作流示例(按需拷贝)

Section titled “最小可用工作流示例(按需拷贝)”

1) 在评论里用 @claude 做代码评审

Section titled “1) 在评论里用 @claude 做代码评审”
name: Claude Code (mentions)
on:
issue_comment: { types: [created] }
pull_request_review_comment: { types: [created] }
jobs:
run:
runs-on: ubuntu-latest
steps:
- uses: anthropics/claude-code-action@v1
with:
anthropic_api_key: ${{ secrets.ANTHROPIC_API_KEY }}
# 留空 prompt,自动响应 @claude

行为说明:当有人在 PR/Issue 评论区写 @claude 这段代码可能有并发问题,给建议并修复,Action 会读取上下文给出回复,必要时提交变更。

2) 用斜杠命令做自动化代码审查

Section titled “2) 用斜杠命令做自动化代码审查”
name: Code Review
on:
pull_request: { types: [opened, synchronize] }
jobs:
review:
runs-on: ubuntu-latest
steps:
- uses: anthropics/claude-code-action@v1
with:
anthropic_api_key: ${{ secrets.ANTHROPIC_API_KEY }}
prompt: "/review"
claude_args: "--max-turns 5"

说明:新 PR 或有更新时,固定触发 /review 工作流进行轻量审查,控制轮次防止过度往返。

name: Daily Report
on:
schedule: [{ cron: "0 9 * * *" }]
jobs:
report:
runs-on: ubuntu-latest
steps:
- uses: anthropics/claude-code-action@v1
with:
anthropic_api_key: ${{ secrets.ANTHROPIC_API_KEY }}
prompt: "Summarize yesterday's commits and open issues"
claude_args: "--model claude-sonnet-4-20250514"

说明:定时扫描仓库提交与未解决 Issue,输出日报到评论或新 Issue。


  • 安全审查与合规清单:给 PR 加一条安全/隐私检查流程。减少漏项,拉齐“最低审查线”。
  • Bug 复现与小修小补:评论里描述报错,@claude 让它复现、定位并提交小范围修复 PR。
  • 单测补全:给关键模块自动生成缺失用例,配合 CLAUDE.md 约束用例风格。
  • 多仓库一致化改造:配合 SDK/Headless 模式,批量执行“统一脚手架、升级依赖、替换老函数”。
  • 企业上云合规:如有数据驻留或计费要求,可切换 Bedrock / Vertex 通道,统一账号体系与审计。

写好 CLAUDE.md(让 AI 真正懂你的项目)

Section titled “写好 CLAUDE.md(让 AI 真正懂你的项目)”

在仓库根目录放一份 CLAUDE.md,建议包含:

  • 代码风格与目录规范
  • 提交信息格式(如 Conventional Commits)
  • 组件/服务的首选实现模式反模式
  • 评审清单:安全、性能、可测试性、可观测性
  • 参考实现链接(允许 @file 引用关键文档与示例)

小贴士:CLAUDE.md短而硬。越清晰,Claude 产出越稳。长文档用链接或 @file 组合拆分。


成本与安全(老板最关心的两件事)

Section titled “成本与安全(老板最关心的两件事)”

成本怎么控?

  • 公有仓库使用 托管 runner 免费;私有仓库消耗分钟数与存储配额,超额计费。
  • 设置 --max-turns,避免长对话拉高 Tokens;必要时给任务加 超时并发 限流。
  • 定时任务避开高峰;减少无谓触发;控制 artifact 存储时间。

安全怎么做?

  • API Key 只放 Secrets,工作流里用 ${{ secrets.ANTHROPIC_API_KEY }} 引用,不要硬编码
  • 最小化权限:给 GitHub App 只开需要的 Repo 权限;审计 CI 触发事件。

  • 自定义 GitHub App:企业想用自家头像/昵称、细粒度权限,可自建 App 并在工作流里用 create-github-app-token 登录。
  • 结合加速 Runner:对大仓库或重任务,考虑自托管或加速型 Runner,缩短作业时长、控制花费。
  • SDK 编排子任务:用 Claude Code SDK 调度“读仓库→生成补丁→验证→发 PR”的流水线,形成你们的“工程化 Agent”。

团队越忙,越需要一个稳定的“自动化同事”。 把「规范写进 CLAUDE.md、工作流写进 GitHub Actions」,你就能把枯燥但关键的工程任务交给 Claude,给人留出更高价值的创造时间。

你会先把哪条流程交给 @claude? 留言说说你的想法,或者把这篇文章转给需要的同事,今天就试起来。

Claude Code 用 GitHub Copilot Sonnet 模型

场景:Claude Code 用到关键时刻提示配额不够,但你手里正好有 GitHub Copilot 订阅。 这时用一个开源的 Copilot API 代理,把 Copilot 暴露成OpenAI/Anthropic 兼容接口,就能把 Claude Code 接上继续 Vibe Coding。本文带你上手,并给出安全合规的推荐用法。


这是一个反向工程的 GitHub Copilot API 代理,把 Copilot 变成OpenAI /v1/chat/completionsAnthropic /v1/messages 兼容服务。好处是:任何支持这两套 API 的工具都能用,包括Claude Code。项目自带用量仪表盘速率限制手动审单企业/业务版账号支持等。

注意:它不是 GitHub 官方支持。GitHub 对过度自动化/批量请求有明确限制,可能触发风控或临停。请自担风险,理性使用


三点刚需价值:

  • 低中断:Claude Code 断粮时,用 Copilot 继续写、改、测。
  • 低改造:直接走 OpenAI/Anthropic 兼容端点,Claude Code 无感切换。
  • 可控可查:自带用量看板限流/等待机制手动审批,避免误触风控。

前提:你有有效的 GitHub Copilot 订阅

Terminal window
# 1) 交互式登录
npx copilot-api@latest auth
# 2) 启动代理,并生成 Claude Code 接入命令
npx copilot-api@latest start --claude-code
# 3) 在新终端粘贴运行(或手动指定环境变量)
ANTHROPIC_API_KEY=sk-dummy \
ANTHROPIC_BASE_URL=http://localhost:4141 \
claude --dangerously-skip-permissions

以上流程来自项目内置的 --claude-code 交互向导;也可用 .claude/settings.json 固化环境,避免每次敲变量。

更稳的做法:别长期用 --dangerously-skip-permissions。改用 Claude Code 的权限与环境设置,在项目级 .claude/settings.json 配置 ANTHROPIC_BASE_URL、默认模型和权限白名单,防止误操作。


  • npx 一键跑npx copilot-api@latest start(可加 --port 8080 --verbose

  • Docker 保持登录态:挂载 ./copilot-data 持久化令牌,容器重启不丢。

    Terminal window
    mkdir -p ./copilot-data
    docker run -p 4141:4141 \
    -v $(pwd)/copilot-data:/root/.local/share/copilot-api \
    copilot-api

    支持在 build/run 阶段传入 GH_TOKEN 环境变量,适合 CI/CD。


推荐“安全合规”姿势(强烈建议收藏)

Section titled “推荐“安全合规”姿势(强烈建议收藏)”
  • 只绑定本机:监听 127.0.0.1:4141,别裸露到公网。必要时走内网隧道/VPN。
  • 开启限流--rate-limit 30 --wait + 需要时 --manual 手动审单,降低异常频率。
  • 分清账号类型:个人 / Business / Enterprise 用 --account-type 明示。
  • 遵守条款:阅读 GitHub Acceptable Use PoliciesCopilot Terms,避免过度自动化/批量刷请求
  • 权限最小化:用 Claude Code 的 permissions.deny 排除 .envsecrets/** 等敏感目录。

  • 提示 token/模型受限:关注 Issues 中的 max_prompt_tokens、上下文太大等讨论与修复建议。
  • Headless 机器登录困难:参考 auth 子命令产 token,再用 --github-token 传入。
  • 被风控:先停用自动批量任务,提高延时、开启 --manual,再检查条款合规性。

  • 适合:个人开发者、小团队,已付费 Copilot,希望在Claude Code 配额见底时有平滑备援
  • 不太适合:严格合规的大企业;建议走 Claude Code 官方对接(如 Bedrock/Vertex/LLM 网关/企业代理等官方路径)。

[配图建议 | 2:1 插画] 主题:左右对比:左侧“个人工作台”轻装上阵;右侧“企业机房”合规盾牌、云服务徽标。 英文提示词:Split-screen illustration: indie desk setup vs enterprise server room with a compliance shield. Minimal, 2:1.


本地一键跑:

Terminal window
npx copilot-api@latest auth
npx copilot-api@latest start --rate-limit 30 --wait --claude-code
# 新终端按提示运行 Claude Code 启动命令

**项目级固定环境:**在项目根目录 .claude/settings.json

{
"env": {
"ANTHROPIC_BASE_URL": "http://localhost:4141"
},
"permissions": {
"deny": ["Read(./.env)", "Read(./.env.*)", "Read(./secrets/**)"]
}
}

(更多可选项见官方设置文档。)


它像是一块应急电源。在关键时刻,帮你把 Vibe Coding 的节奏接上;平时,也能当低成本的联机备援。但记住——稳、合规、最少权限,才是真正让人安心的生产力。

你会把它做成长期兜底,还是只在应急时启用?你觉得呢?

用 Spokenly + Claude Code,在 Mac 张口就来 Vibe Coding 编程开发

你说、它写、立刻跑。手离键盘,代码照样飞。

这两个月我彻底被 Vibe Coding 上了瘾。 装上 Spokenly 做语音输入,再配上 Claude Code 当终端里的“能干小助手”。 一口气开三扇窗:规划写码审查。 我去倒杯茶,回来就只剩“验收”和“续命”。 睡前丢个大任务,第二天像“无良老板”查工单,一天的节奏就稳了。

这篇就把 macOS 上如何用 Spokenly 语音驱动 Claude Code 的完整打法讲透,装完即用,今晚就开干。


  • Spokenly:一键热键,任何输入框即刻听写;支持本地 Whisper 模型,离线可用,也可自带云厂商 API Key;有 Agent Mode(语音控 Mac)。
  • Claude Code:终端里的智能结对编程,npm i -g @anthropic-ai/claude-code 后,直接 claude 开整;支持 /model /config /ide /compact 等 Slash 命令,与 VSCode/JetBrains IDE 深度集成。
  • 语音交互小技巧:Option+Enter 或 /terminal-setup 解决多行输入;Esc Esc 回改上一条;三窗口分工跑通“计划-执行-审核”。

1)Spokenly(语音 → 文本)

  • 官网:https://spokenly.app/ 支持 本地 Apple Speech Recognition、** Whisper**、100+ 语言、Local-only 隐私模式Agent Mode、历史检索;Mac+iPhone。
  • App Store:免费下载,Pro 订阅可用云模型;近期版本支持 SonioxParakeet v3、历史重转写等。

2)Claude Code(终端智能体)

Terminal window
# Node.js 18+
npm i -g @anthropic-ai/claude-code
cd your-project
claude

30 秒起步;支持 MCP、执行命令、编辑文件、创建提交,还能接 IDE。

3)IDE(可选,但强烈建议)

  • VS Code/Cursor/Windsurf:在集成终端 claude自动安装扩展
  • JetBrains 家族:装插件后重启;外部终端可用 /ide 连接到 IDE。

备选:苹果原生听写 也能用,但功能与私密性不及 Spokenly(尤其在多语言与离线 Whisper)。


Step 1:配置 Spokenly

  • 安装后首启,授予麦克风权限。
  • 在偏好设置里设一个 全局 Push-to-Talk 热键(如 Right Command)。
  • 选择 Local-only,调用 Apple Speech Recognition 模型,离线更私
  • 打开 Auto language,中英混说不卡壳。
  • 模式选“在光标处输入”(它会“像你在打字”一样把文本塞进终端或编辑器)。

Step 2:启动 Claude Code

  • 在你的项目目录里执行 claude

  • 需要多行粘贴或口述长需求?

    • 直接 Option+Enter 多行;或执行 /terminal-setupShift+Enter 绑定换行。
  • 跑在 IDE 里?外部终端可先开 claude,再 /ide 连接到 VSCode/JetBrains,启用 选区上下文IDE Diff 等能力。

Step 3:语音开喷

  • 聚焦到 Claude 终端输入框 → 按住热键说 → 松开即发送。
  • 需要改前一句?Esc Esc 回到上一条编辑。

三、三窗口「Vibe Coding」流:计划|执行|审核

Section titled “三、三窗口「Vibe Coding」流:计划|执行|审核”

窗口 A:Architect(规划)

  • 口述:“帮我在 Next.js 项目新增 OAuth 登录先出任务清单和文件改动列表,每步 20 行内。”
  • 命令:/model 选合适模型;/compact 压缩上下文,保持专注。

窗口 B:Builder(实现)

  • 口述:“根据 A 的清单,写代码并自测,遇到报错自动修,必要时跑脚本。”
  • Option+Enter 说出多段代码块结构:“第一段是 API 路由,第二段是 UI 组件……”。

窗口 C:Reviewer(审查)

  • 命令:/review/cost 看 token/成本,必要时 /config 限制工具与变更范围。
  • IDE 模式下,Diff 直接在编辑器里看,手感接近本地结对。

小诀窍:不同任务用不同项目目录启动 claude,每个会话的历史 按目录隔离,切换更干净。


四、睡前“通宵大活”的口述模板

Section titled “四、睡前“通宵大活”的口述模板”

把大活拆成 4 段说清楚,Claude Code 才不走偏:

1)Goal:一句话目标 + 成功标准 2)Scope:改哪些目录,不动哪些(白名单/黑名单) 3)Checks:自测脚本、lint、单测、E2E 4)Deliverables:PR 摘要、Diff、变更日志

例: “今晚把 结算模块 从 REST 迁到 tRPC。只改 /server//app/billing/。跑 pnpm testpnpm lint 全绿。输出迁移步骤与风险点,最后给我一份 回滚指南。”


  • 说出结构: “标题:… 新段落。列表:一、二、三。” Claude 更会写文档。
  • 说出约束: “最多改三处,每处不超 30 行。” 防止“大刀阔斧”。
  • 说出边界: “仅允许 Bash:pnpm*git*。”(配合 /config 限工具)
  • 说出检查: “改完跑 npm run test,失败就回滚。”
  • 中英混说: 模块名/方法名用英文更准;Spokenly 自动识别语言。
  • 多行输入: Option+Enter 或 /terminal-setup
  • 编辑上一条: Esc Esc 回改再发。

  • 本地优先:Spokenly 的 Local-only 让音频不出机,离线 Whisper 走起。
  • 自带 Key:需要云转写可接 OpenAI/Deepgram/Groq 等,自己控成本;也可订 Pro 省配置。
  • Claude 侧成本/cost 看用量,控制模型与思考深度(配合 /model)。

  • 终端回车换行乱 → 用 Option+Enter/terminal-setup 绑定 Shift+Enter
  • IDE 扩展没装上 → 确保在 IDE 的集成终端里跑 claude;JetBrains 需重启;外部终端用 /ide 连接。
  • 语音没输入到终端 → 检查焦点在 Claude 输入框;Spokenly 热键冲突改一下。
  • 原生听写也想用 → 系统设置 → 键盘 → 打开听写、设快捷键“双击 Control”。

  • “在 /api/orders 加一个导出 CSV 的端点。先给计划再写代码最后跑测试,全程一步步展示。”
  • “把 支付页面 的状态管理从 Redux 换到 Zustand只改现有逻辑,不推翻 UI风险点列 3 条。”
  • “阅读 /server/report/ 下的 6 个模块,生成依赖关系图,并 输出可视化脚本(d2 或 mermaid 二选一)。”

语音驱动 Claude Code,不是“更花哨”,而是 更快进入「说清楚 → 出结果」 的状态。 当你把需求口述得越清,Claude 的执行越稳,Vibe 就越顺。 今晚就试试“三窗口法”,把睡前那一单交给它吧。

你觉得这种工作流最省时间的点在哪?评论区聊聊。

本地搭建 CodeCombat 让孩子在玩游戏中学编程

想把编程课做成“通关游戏”?CodeCombat 就是把 Python / JavaScript 写进闯关流程的那个项目。它开源、内容全、上手快。今天用 docker-compose 带你一键跑起来,还顺手搞定注册、初始化和“上帝模式”。

CodeCombat 是一款有趣的开源编程游戏,非常适合边玩儿边学b编程。它使用 Python, JavaScript 等代码来操控游戏人物,让你一边沉浸在游戏乐趣中一边学习编程技术。从最初小白入门级的单人关卡到后来高难度的多人对战,对编程敢兴趣的人都可以乐在其中并从各种战斗中不断吸取编程知识。

作为家长和教育者,CodeCombat 是一个非常棒的工具,能让孩子们在玩游戏的同时学习编程。它的互动性和趣味性使得学习过程变得轻松愉快。通过完成各种任务和挑战,孩子们不仅能掌握编程基础,还能培养解决问题的能力和逻辑思维。


很多朋友问:怎么把 CodeCombat 自建起来给学生/社群用? 自己搭环境却常常卡在数据库、依赖和启动脚本。

这篇文章给你一个极简实践

  • 用一份 docker-compose.yml 一键启动 Web + MongoDB;
  • 首次导入数据 dump;
  • 注册账号、进入游戏;
  • 需要的话,开通 管理员 / Godmode

为什么值得折腾?CodeCombat 是老牌开源“编程闯关”,支持 Python、JavaScript、HTML,配教学内容与关卡编辑能力,适合课堂与自学。


  • 开源可改:克隆仓库就能本地跑,生态活跃,开发文档充足。
  • 编程即闯关:边写代码边打怪升级,支持 Python / JS,容易激发学习动机。
  • 班级化:官方面向学校提供完整课程、练习与评估思路,自建私服可做内部教学与活动。

把下面这份直接保存为 docker-compose.yml,放在你的项目目录下:

version: "3.8"
services:
codecombat:
image: operepo/ope-codecombat:latest
container_name: myco
restart: always
ports:
- "3000:3000"
working_dir: /home/coco
command: >
sh -c "./codecombat/bin/coco-mongodb &
sleep 10 &&
sh start.sh"
volumes:
- ./data:/home/coco/codecombat/data

这份配置做了什么?

  • 拉起 Web 服务,同时在同一容器里启动 MongoDB(脚本 ./bin/coco-mongodb);
  • 端口映射到 http://127.0.0.1:3000
  • 将宿主机 ./data 目录挂载到容器的数据目录,方便导入 dump 与持久化。

说明:示例镜像 operepo/ope-codecombat 很早期(Docker Hub 记录显示约 8 年前上传)。能跑,但较老;如果你要长期用,建议后续对照官方仓库自行构建更新镜像。


  1. 准备数据文件 把下载好的 dump.tar.gz 放到 data/(与 docker-compose.yml 同级): 没有这个数据包,会无法运行。
    下载地址(别人分享的):https://cloud.189.cn/t/IJzmuqz2u673 (访问码:c1wi)
Terminal window
mkdir -p data
cp dump.tar.gz data/
  1. 首次解压数据库 dump 先启动,再进容器解压(仅第一次需要):
Terminal window
docker-compose up -d
docker exec -it myco /bin/bash
cd /home/coco/codecombat/data
tar -zxvf dump.tar.gz
exit
  1. 日常启动/关闭
Terminal window
# 启动
docker-compose up -d
# 关闭
docker-compose down

访问地址:http://127.0.0.1:3000


  • 打开 http://127.0.0.1:3000
  • Sign Up 注册新用户,选择语言与编程语言(Python / JavaScript)。
  • 进入第一章,跟着引导写下第一行代码就能打通关卡。
  • 想当“老师”角色?可以先自建账号,后续批量注册学员,或把私服当作活动服使用。官方学校页能参考课程组织方式与内容结构。

如果登录后在 account/settings 看不到 “管理”“上帝模式”,可以手动给账号赋权。进入容器:

Terminal window
docker exec -it myco /bin/bash
# 情况A:容器里有 mongo 客户端
mongo
use coco
db.users.update(
{ name: "你的用户名" },
{ $set: { "earned.gems": 9999999, permissions: ["godmode","admin"] } },
true,
false
)

这类“本地开发环境的管理员赋权”做法在社区里也有类似说明与讨论,可作参考。

小贴士:如果提示 mongo: command not found,说明容器内未带 mongo 客户端。老镜像通常自带;若没有,可在宿主机装 mongosh 连接到容器暴露的数据库端口,或改用容器内的工具脚本(某些分支有 mongo_run.sh / coco_run.sh)。


  • 镜像版本老operepo/ope-codecombat 久未更新。能用来快速验证,但建议后续基于 官方仓库 自己构建镜像,获得较新的依赖与安全修复。
  • 端口被占用3000 被其他服务占了,改 ports 映射即可,例如 "8086:3000"
  • Godmode 不生效:确认更新的字段匹配你的用户文档(有的环境是 slugemail),并确保写入到 coco 数据库。
  • 本地权限问题:挂载目录 ./data 需要你的宿主机用户有写权限。
  • Mongo 客户端差异:新版推荐 mongosh。权限动作与角色说明见官方文档。

这套玩法的优点很直接:一条命令起全站,导入一次数据就能顺滑开局。 你可以把它当课堂演示、社群周赛、公司内部编程闯关,甚至改关卡做主题活动。

你会怎么用? 在评论区聊聊你的场景,顺便晒一张你们的“通关截图”。

Claude Code 母公司 Anthropic 即将完成100亿美元融资分析

据《彭博社》2025 年 8 月 22 日报道,人工智能领域迎来重大融资消息。知名 AI 初创公司 Anthropic 即将达成一项规模空前的融资协议,预计将筹集高达 100 亿美元的资金。这一数字远超市场预期,成为 AI 行业迄今为止最大规模的单轮融资之一。

基于对Anthropic即将完成100亿美元融资报道的全面调查,本报告通过多渠道事实核查、逻辑分析和批判性思维,对该新闻的真实性、准确性和可信度进行深入剖析。我们查阅了至少15个不同渠道的报道,并进行了交叉验证,发现该报道存在多个值得关注的问题。以下将从事实核查结果、数据分析、逻辑合理性、利益动机、市场心理以及潜在风险等方面进行详细分析。


通过对彭博社、CNBC、TechCrunch、路透社等权威媒体的交叉核查,可以确认Anthropic确实在进行新一轮融资谈判,但关键细节存在显著差异。最初的消息来源(如彭博社)报道的融资金额为50亿美元,估值约1700亿美元,并非某些媒体声称的100亿美元。

融资进展的真实时间线大致如下:

  • 2025年7月29日: 彭博社首次报道Anthropic正洽谈新一轮融资,金额在30亿到50亿美元之间,估值约1700亿美元。由Iconiq Capital领投,可能有第二家领投机构参与,同时公司据称在与卡塔尔投资局(QIA)和新加坡主权基金GIC接洽参投。
  • 2025年8月20-21日: 包括彭博社在内的多家媒体更新消息称融资额度提高到最高100亿美元,成为AI初创公司有史以来最大规模融资之一。据知情人士透露,之所以金额大幅增加,是由于投资者需求强劲,使募资目标从50亿翻倍到100亿美元。
  • 投资方信息核对: Iconiq Capital确实为此轮融资的领投方已基本确认,但关于其他参与投资方的报道并不一致。一些消息来源提到TPG、Lightspeed、Spark Capital、Menlo Ventures等风投公司也可能参投,本轮还与卡塔尔投资局和新加坡政府投资公司接洽入股。不同媒体对参与方给出了略有出入的名单,尚无官方统一确认。

结论:Anthropic的新融资确有其事,但关于金额规模和投资阵容的报道存在信息出入。尤其是50亿美元提高到100亿美元的说法,目前仅基于匿名消息人士,尚未有官方公开证实。


通过对Anthropic历史估值数据的梳理,我们发现该公司估值增长轨迹存在合理性疑问:

  • 2025年3月: 完成由Lightspeed领投的35亿美元融资,投后估值约为615亿美元。
  • 2025年7月: 传闻中新一轮融资的估值已高达1700亿美元,增幅达到176%。

按年化计算,四个月估值翻近三倍,相当于年化增长率超过500%。这种估值跳跃在当前AI热潮中虽然并非绝无仅有,但通常需要非常强劲的业务基础支撑。


多个信源确认Anthropic的年化收入(Annualized Revenue Run-rate, ARR)在过去一年中呈现爆炸式增长:

  • 2024年末:约10亿美元
  • 2025年5月:约30亿美元
  • 2025年7月:约40~50亿美元

关键问题: ARR采用“单月收入 × 12”计算,这在高速增长阶段会显著高于实际全年收入水平,可能夸大真实业绩。

调查发现Anthropic收入结构存在严重集中风险

  • 前两大客户贡献约14亿美元年化收入,占总收入近28%
  • 最大客户是AI编程助手Cursor,单体贡献约5亿美元
  • Claude Code产品贡献近4亿美元年化收入

一旦主要客户流失,将对收入造成重大打击。


  • 资金消耗: 3月刚融35亿美元,5个月后又寻求50-100亿美元,暗示烧钱速度极高,推算月消耗可能上亿美元甚至10亿美元级别。
  • 估值倍数: Anthropic估值/收入倍数约 34倍,而OpenAI约 25倍。在缺乏差异化优势的情况下,估值溢价合理性存疑。
  • 消息披露与OpenAI融资几乎同步,极具“市场造势”意味。
  • 多数报道来自“知情人士”,缺乏官方确认。
  • 媒体放风更像是营造紧迫感与稀缺性,推动估值水涨船高。

  • 优势: 管理资产超800亿美元,客户包括扎克伯格、霍夫曼等硅谷顶尖人物。
  • 质疑:
    • 主要服务超高净值客户,投资决策可能带有个人偏好。
    • 历史上偏好后期、稳健投资,本次10亿美元单笔投入属罕见大额。
  • QIA与GIC参与: 涉及复杂地缘政治与国家安全审查风险。
  • CEO曾表态: 担心中东资金带来道德与监管争议,但现实资金需求迫使公司考虑接受。

  • Anthropic: 需要巨资维持与OpenAI竞争,高估值有利于吸引人才、合作伙伴及未来IPO。
  • 投资者: FOMO情绪严重,主权基金看重战略布局。
  • 媒体: “创纪录融资”自带流量,匿名消息降低报道门槛,报道动机可能混杂。

  • 估值与基本面脱钩: AI公司估值倍数远超传统科技公司。
  • 资金过度集中: 2025年上半年,美国创投资金64%流向AI。
  • 跟风投资盛行: 投资者害怕错过下一个ChatGPT,推高泡沫风险。

  • 技术护城河有限: Claude与GPT-5差距缩小,优势不明显。
  • 商业模式存疑: API调用模式面临价格战压力,算力成本居高不下。
  • 美国出口管制欧盟AI Act等法规可能限制业务扩张。
  • 主权基金参投或触发美国CFIUS审查,增加不确定性。

  • 基本属实: Anthropic确实在融资。
  • 关键数字存疑: 100亿美元融资缺乏证实,更可能是50亿美元。
  • 估值虚高: 缺乏基本面支撑。
  • 信息不完整: 存在选择性披露嫌疑。
  1. 理性看待融资新闻,避免被大数字冲昏头脑。
  2. 关注实际收入与盈利,而非估值噱头。
  3. 警惕泡沫与跟风,避免盲目投资。
  4. 等待官方确认,再作投资判断。

通过这次深度分析,我们看到在AI投资热潮中,媒体报道、公司宣传与实际情况之间往往存在显著差距。狂热之下泥沙俱下,唯有保持理性、勤于求证,才能看清真相,不被市场情绪裹挟。

用 Claude Code 开一个 Gemini Subagent

在 Claude Code 里新建一个“子代理(sub-agent)”,专门负责调用 Gemini CLI。大体量代码扫描、架构总览、安全审计,都交给 Gemini 的 1M token 上下文来跑;Claude 继续做主脑,解释结果与落地改动。省钱、省心、效率高。


做代码总览、跨仓库检索、架构梳理,Claude 再聪明也会被上下文卡脖子。 解决办法很简单:把“大胃口”的分析外包给 Gemini CLI。我们在 Claude Code 里创建一个“Gemini 分析子代理”,它只干三件事:拼命令 → 调 CLI → 原样把结果交回。Claude 不被上下文污染,专心做决策与修改,强强联合

为什么是现在? Google 正式开源了 Gemini CLI,个人账号可免费直连 Gemini 2.5 Pro,而且是 1M token 超大上下文,预览期还给到很阔的配额。这对需要整仓分析的开发者,堪称“外挂”。

配图建议(2:1 插画):一位工程师在指挥台上调度两个机器人:左侧“Claude 主代理”做规划与改动,右侧“Gemini 子代理”拉取海量代码做分析。界面元素用英文,不要中文。


思路图:主脑 + 子代理,各司其职

Section titled “思路图:主脑 + 子代理,各司其职”
  • Claude 主代理:对话、拆解任务、评审与落地修改(编辑文件、跑测试等)。
  • Gemini 子代理不做分析推理负责把请求变成 Gemini CLI 命令并执行,然后把原始输出交回
  • 上下文隔离:子代理有独立上下文,不污染主对话;适合重复复用。

  1. 安装 Gemini CLI(三选一)
Terminal window
# npx 直接跑(免安装)
npx https://github.com/google-gemini/gemini-cli
# 全局安装(npm)
npm install -g @google/gemini-cli
# 或者 Homebrew(macOS/Linux)
brew install gemini-cli

要求 Node.js ≥ 20。支持 OAuth 登录、API Key、或 Vertex AI。

  1. 登录/鉴权
Terminal window
# 推荐:OAuth(个人 Google 账号,预览期配额充足)
gemini # 按提示走浏览器登录
# 或:使用 AI Studio 的 API Key
export GEMINI_API_KEY="YOUR_API_KEY"
gemini

官方博客确认了 1M 上下文与预览期的高额度;GitHub README 给出了 OAuth / API Key / Vertex 三种姿势。

  1. 验证是否就绪
Terminal window
gemini -p "Say hello and print current directory files briefly"

在 Claude Code 里创建“Gemini 分析子代理”

Section titled “在 Claude Code 里创建“Gemini 分析子代理””

Claude Code 支持把自定义子代理存成 Markdown + YAML frontmatter 文件;项目级建议放在 .claude/agents/ 下,用户级可放 ~/.claude/agents/

新建文件.claude/agents/gemini-analyzer.md

---
name: gemini-analyzer
description: Manages Gemini CLI for large codebase analysis and pattern detection. Use proactively when Claude needs to analyze extensive code patterns, architectural overviews, or search through large codebases efficiently.
tools: Bash, Read, Write
---
You are a Gemini CLI manager specialized in delegating complex codebase analysis tasks to the Gemini CLI tool.
Your sole responsibility is to:
1. Receive analysis requests from Claude
2. Format appropriate Gemini CLI commands
3. Execute the Gemini CLI with proper parameters
4. Return the results back to Claude
5. NEVER perform the actual analysis yourself - only manage the Gemini CLI
When invoked:
1. Understand the analysis request (patterns to find, architectural questions, etc.)
2. Determine the appropriate Gemini CLI flags and parameters:
- Use `--all-files` for comprehensive codebase analysis
- Use specific prompts that focus on the requested analysis
- Consider using `--yolo` mode for non-destructive analysis tasks
3. Execute the Gemini CLI command with the constructed prompt
4. Return the raw output from Gemini CLI to Claude without modification
5. Do NOT attempt to interpret, analyze, or act on the results
Example workflow:
- Request: "Find all authentication patterns in the codebase"
- Action: `gemini --all-files -p "Analyze this codebase and identify all authentication patterns, including login flows, token handling, and access control mechanisms. Focus on the implementation details and architectural patterns used."`
- Output: Return Gemini's analysis directly to Claude
Key principles:
- You are a CLI wrapper, not an analyst
- Always use the most appropriate Gemini CLI flags for the task
- Return complete, unfiltered results
- Let Claude handle interpretation and follow-up actions
- Focus on efficient command construction and execution
## Detailed Examples by Use Case
### 1. Pattern Detection
**Request**: "Find all React hooks usage patterns"
**Command**: `gemini --all-files -p "Analyze this codebase and identify all React hooks usage patterns. Show how useState, useEffect, useContext, and custom hooks are being used. Include examples of best practices and potential issues."`
**Request**: "Locate all database query patterns"
**Command**: `gemini --all-files -p "Find all database query patterns in this codebase. Include SQL queries, ORM usage, connection handling, and any database-related utilities. Show the different approaches used."`
### 2. Architecture Analysis
**Request**: "Provide an architectural overview of the application"
**Command**: `gemini --all-files -p "Analyze the overall architecture of this application. Identify the main components, data flow, directory structure, key patterns, and how different parts of the system interact. Focus on high-level organization and design decisions."`
**Request**: "Analyze the component hierarchy and structure"
**Command**: `gemini --all-files -p "Examine the React component hierarchy and structure. Identify reusable components, layout patterns, prop drilling, state management approaches, and component composition patterns used throughout the application."`
### 3. Code Quality Analysis
**Request**: "Find potential performance bottlenecks"
**Command**: `gemini --all-files -p "Analyze this codebase for potential performance bottlenecks. Look for expensive operations, inefficient data structures, unnecessary re-renders, large bundle sizes, and optimization opportunities."`
**Request**: "Identify security vulnerabilities"
**Command**: `gemini --all-files -p "Scan this codebase for potential security vulnerabilities. Look for authentication issues, input validation problems, XSS vulnerabilities, unsafe data handling, and security best practices violations."`
### 4. Technology Stack Analysis
**Request**: "Identify all third-party dependencies and their usage"
**Command**: `gemini --all-files -p "Analyze all third-party dependencies and libraries used in this project. Show how each major dependency is utilized, identify any potential redundancies, outdated packages, or security concerns."`
**Request**: "Map out the testing strategy and coverage"
**Command**: `gemini --all-files -p "Examine the testing strategy used in this codebase. Identify test frameworks, testing patterns, test coverage areas, mocking strategies, and areas that might need more testing."`
### 5. Feature Analysis
**Request**: "Trace a specific feature implementation"
**Command**: `gemini --all-files -p "Trace the implementation of [specific feature] throughout the codebase. Show all files involved, data flow, API endpoints, UI components, and how the feature integrates with the rest of the system."`
**Request**: "Find all API endpoints and their usage"
**Command**: `gemini --all-files -p "Catalog all API endpoints in this application. Include REST routes, GraphQL resolvers, tRPC procedures, their request/response patterns, authentication requirements, and how they're consumed by the frontend."`
### 6. Migration and Refactoring Analysis
**Request**: "Identify legacy code patterns that need modernization"
**Command**: `gemini --all-files -p "Identify outdated or legacy code patterns that could be modernized. Look for old React patterns, deprecated APIs, inefficient implementations, and opportunities to use newer language features."`
**Request**: "Analyze consistency across similar components"
**Command**: `gemini --all-files -p "Examine similar components or modules for consistency. Identify variations in patterns, naming conventions, implementation approaches, and opportunities for standardization or creating reusable abstractions."`
### 7. Documentation and Knowledge Transfer
**Request**: "Generate onboarding documentation insights"
**Command**: `gemini --all-files -p "Analyze this codebase to help create onboarding documentation. Identify key concepts developers need to understand, important files and directories, setup requirements, and the most critical patterns to learn first."`
### Command Flag Guidelines:
- Always use `--all-files` for comprehensive analysis
- Add `--yolo` for non-destructive analysis tasks to skip confirmations
- Use `-p` for single prompts or `-i` for interactive sessions
- Consider `--debug` if you need to troubleshoot Gemini CLI issues

子代理文件格式、放置路径与可用工具名(Bash/Read/Write),以官方文档为准。

小贴士:你也可以直接用 /agents 交互式创建与编辑子代理,更省事。


给子代理“开绿灯”:权限与安全

Section titled “给子代理“开绿灯”:权限与安全”

为了让子代理能顺利执行 gemini 命令,建议在 .claude/settings.json白名单相关 Bash 调用;同时严格黑名单敏感文件读取:

{
"permissions": {
"allow": [
"Bash(gemini*)",
"Read(**/*.md)",
"Read(src/**)"
],
"deny": [
"Read(./.env)",
"Read(./.env.*)",
"Read(./secrets/**)",
"Bash(curl:*)"
]
}
}

权限系统与示例配置来自 Claude Code 官方“Settings”文档。


三个“上手就能用”的实战案例

Section titled “三个“上手就能用”的实战案例”

使用方式:在 Claude Code 里直接对主代理说话,例如: “gemini-analyzer 子代理扫描整个仓库的认证实现,并把原始输出返回”。

1) 模式检索:找出认证/鉴权实现

Section titled “1) 模式检索:找出认证/鉴权实现”

Claude 指令

Use the gemini-analyzer subagent to analyze authentication patterns across the repo and return raw output.

子代理应构造并执行的命令(示例)

Terminal window
gemini -p "Analyze this codebase and list all authentication & authorization patterns: login flows, token/session handling, middleware/guards, RBAC/ABAC, and any security pitfalls. Show file paths and code excerpts when helpful."

-p 支持非交互单次分析;在仓库根目录执行即可让 Gemini 读取项目上下文,必要时可加 --include-directories 指定额外目录。


Claude 指令

Use gemini-analyzer to provide a high-level architectural overview and return the raw result.

子代理命令

Terminal window
gemini -p "Give an architectural overview: main modules, data flow, directory structure, cross-cutting concerns, and how backend APIs connect to frontend components. Output a concise map with file references."

大上下文适合整仓概览、跨层联动梳理;恰好发挥 Gemini CLI 1M token 的优势。


Claude 指令

Ask gemini-analyzer to scan for potential security issues and return raw findings.

子代理命令

Terminal window
gemini -p "Scan for potential security issues: XSS, SQL/NoSQL injection, hard-coded secrets, weak crypto, unsafe deserialization, missing input validation, authz gaps. Provide evidence snippets and file paths."

子代理只回传原始输出,由 Claude 主代理负责解读、生成修复 PR。


  • 一句话角色卡:在 description 里写上“Use proactively”,让 Claude 自动把大活派给它。
  • 成本/速度切换:分析阶段可用 -m gemini-2.5-flash 先跑一版,确认方向后再用 -m gemini-2.5-pro 精扫。
  • 固定模板:把常用提示做成片段(例如“依赖地图”“测试覆盖率报告”),复用稳定。
  • 上下文干净:子代理与主对话分离,避免一轮大扫描把主线挤爆。
  • 权限最小化:只放行必要的 Bash/Read 规则;敏感文件坚决 deny。
  • 遇错别慌:命令失败就用 --debug 重试,把日志原样返回给 Claude 排障。

这套“Claude 主脑 + Gemini 子代理”的组合,非常适合你做:整仓巡检、架构体检、迁移评估、依赖清理。 你依旧待在 Claude Code 里,把重活交给 Gemini;该省的钱省了,该省的时间也省了。下次你需要“大视野 + 可落地”,就让它们搭班。

你会把它用在什么项目上?评论区聊聊你的场景,我可以帮你把子代理提示词继续打磨

Claude Code 1.0.88:可自定义 Sonnet / Opus / Opus Plan 模型

现在你可以用两个环境变量,把 /model 的别名“sonnet、opus、opusplan”精准指向你想用的具体模型版本,团队控盘更稳、灰度更丝滑。


最近的 Claude Code 1.0.88 是一次小而关键的更新。 它没大张旗鼓,却直接解决了很多团队的“别名漂移”痛点:当 Sonnet/Opus 出新版本时,/model sonnet、/model opus 到底落在哪个具体型号? 现在你可以自己定。

这对需要稳定复现、灰度升级、合规审计的团队非常有用。 尤其是多环境(Console / Bedrock / Vertex)混用时,终于能把别名钉住。


  • ANTHROPIC_DEFAULT_SONNET_MODEL
  • ANTHROPIC_DEFAULT_OPUS_MODEL

作用:控制 /model sonnet/model opus/model opusplan 这三个别名最终指向的具体模型字符串(例如 claude-sonnet-4-20250514claude-opus-4-1-20250805 等)。

注:官方 CLI 文档明确支持“别名或完整模型名”,而“opusplan(仅规划)+ sonnet 执行”的模式早在 1.0.73 就已提供开关。此次 1.0.88 的变量让这套别名更可配置

  • 稳定可复现:锁死别名指向,PR、CI、生产一致。
  • 灰度友好:先在少量机器把 sonnet 暂时映射到“最新版”,验证好再一键全量。
  • 多云一致:不同提供方(Console / Bedrock / Vertex)下,保持同一别名映射策略。

方案 A:Shell 全局(个人/单机)

Section titled “方案 A:Shell 全局(个人/单机)”
Terminal window
# 固定 sonnet 别名到 Sonnet 4 2025-05-14 版
export ANTHROPIC_DEFAULT_SONNET_MODEL="claude-sonnet-4-20250514"
# 固定 opus 别名到 Opus 4.1 2025-08-05 版
export ANTHROPIC_DEFAULT_OPUS_MODEL="claude-opus-4-1-20250805"
#(可选)仍可手动切:/model sonnet | /model opus | /model opusplan

/model 支持别名与完整模型名;opusplan 让 Opus 只做“规划”,执行交给 Sonnet,官方曾在 1.0.73 中加入该模式开关。

方案 B:项目级 .claude/settings.json(团队/仓库)

Section titled “方案 B:项目级 .claude/settings.json(团队/仓库)”
{
"env": {
"ANTHROPIC_DEFAULT_SONNET_MODEL": "claude-sonnet-4-20250514",
"ANTHROPIC_DEFAULT_OPUS_MODEL": "claude-opus-4-1-20250805"
}
}

Claude Code 支持在 settings.json 注入环境变量,便于团队统一下发与版本管控。

方案 C:多提供方(Bedrock/Vertex)协同

Section titled “方案 C:多提供方(Bedrock/Vertex)协同”

在不同环境各自设置以上两个变量,确保别名统一;必要时再结合区域变量与 Bedrock/Vertex 配置。


推荐的 7 个落地场景(结合日常工作)

Section titled “推荐的 7 个落地场景(结合日常工作)”

1)稳定回放/审计 安全或法务复盘时,需要“这个别名当时到底指向哪个精确型号”。把别名钉住,日志更可读,责任更清晰

2)灰度发布 在灰度机器上把 sonnet 指向最新 Sonnet(如 4 或 3.7),验证通过后统一切换,零改命令习惯;若不稳,立即回滚变量。

3)计划-执行双模配合opusplan → Opus 4.1(严谨规划),sonnet → Sonnet 4(快速执行)。长链路任务更稳,吞吐更高。

4)多云一致性 Console 在开发机、Bedrock 在生产集群。两个环境都用相同别名策略,避免“同名不同款”

5)CI / 机器人账号 在 CI 中注入两个变量,PR 机器人用同一“别名→具体型号”映射,评审口径一致

6)教学/训练营 课堂只要求“/model sonnet”,背后把 sonnet 指到你希望的稳定版,统一学员体验

7)成本与配额治理 需要控制某些场景禁止上 Opus?把 opus 映到老版本或干脆不配置,配合权限与 /permissions 管控使用路径。


  • claude /status 查看当前账号与模型信息;
  • claude /model 打开交互菜单确认别名落点;
  • 若你是 Pro 账号:官方说明 Pro 无法使用 Opus,别名指到 Opus 也会不可用(改用 Sonnet)。

  • 1.0.88 版本已在 NPM 版本页列出(前后还有 1.0.87/86/…),属近期发布。
  • 社区多篇变更速记与周刊同步提到新增 ANTHROPIC_DEFAULT_SONNET_MODEL / ANTHROPIC_DEFAULT_OPUS_MODEL,用于控制 opusplan / opus / sonnet 别名。官方文档可能存在更新滞后
  • CLI 文档确认 /model 支持别名sonnet/opus)与完整模型名二选一。
  • Opus Plan Mode 的“规划-执行分离”早先在 1.0.73 引入。

注:上游文档常分散在 Docs / Help Center / NPM / GitHub / 社区速记,因此落地前建议用 /model/status 实测验证别名映射。


1)更新:claude update(或重装最新版)。 2)设置变量(Shell 或 .claude/settings.json)。 3)验证:/model → 选择 sonnet/opus/opusplan/status 看是否命中你配置的具体型号。


小改动,大收益。 把“别名”握在自己手里,复现更稳、灰度更轻、协作更顺。现在就把团队的 sonnet / opus / opusplan 统一定标吧。

你会把 opusplan 用在哪些长链路任务里? 评论区聊聊你的实践与踩坑。

产品经理的 AI 原型设计路线图

别再等排期了。现在,一个 PM 也能用 AI 在 10 分钟内把 Figma 图、手绘草图、甚至一段 PRD,跑成可交互原型。 更妙的是:还能一键部署、连上数据库、收集用户反馈,当天验证、当天迭代。你的对手可能已经这么干了。

这篇文章给你一条“从想法 → 原型 → 用户反馈 → 上线”的实战路径,配齐工具清单、Prompt 模版和避坑建议,照抄就跑。 里面涉及:v0、Bolt.new、Lovable、Replit Agent、Claude Artifacts、Cursor、Copilot、Windsurf、Zed 等。 参考与事实校验都在文内标注。


  • 两条快路A. 设计先行:Figma → v0/Bolt/Lovable → 可交互原型 → 走查 → 用户测试。 B. 想法直达:PRD/草图 → v0/Bolt/Lovable/Replit → 直出全栈 Demo。
  • 本地助手兜底:Cursor/Copilot/Windsurf/Zed 负责多文件修改、Debug、补丁和重构。
  • 10 分钟脚手架:文末有 Prompt 套餐,复制即用。

  • 要“像设计稿一样还原 UI” → v0(天然 Next.js + shadcn/ui,美观默认强;支持 Figma 集成)。
  • 要“浏览器里极速起盘、改就见效” → Bolt.new(WebContainers 在浏览器跑 Node 进程,零安装;更适合前端/JS 栈)。
  • 要“集成账号、数据库、AI 接口,直接做成可用的小产品” → Lovable(连 GitHub、Supabase,支持可视/代码双改)。
  • 要“数据加工、脚本、后端能力强” → Replit(Agent/Docs 支持建全栈、部署、数据库)。
  • 要“聊天里直接跑原型” → Claude Artifacts(对话里生成并运行,可分享链接,适合单页/轻交互)。

备注:Bolt 基于 WebContainers 在浏览器沙箱中跑 Node,适合 JS/TS 技术栈;复杂权限、多用户会话、长期存储,常配 Supabase/Firebase 等云后端来补齐。


2)10 分钟原型流水线(两条路线)

Section titled “2)10 分钟原型流水线(两条路线)”
  1. 在 v0 导入 Figma:它会读取设计文件的视觉/结构上下文,生成高保真 UI。 Prompt:按设计1:1还原,保留字体/间距/颜色,使用 shadcn/ui 组件
  2. 补交互与状态:让 v0 补搜索条、筛选弹层、分页等。
  3. 发布/分享:用于可用性测试或内部评审。
  4. 需要云能力:转 Lovable 接 Supabase 做鉴权/持久化;或直接 Replit 做后端。

v0 的定位是“AI 结对编程 + 生成式 UI”,对设计还原很友好,且有平台 API 可自动化生成应用流水线。

  1. Bolt.new 起盘:一句话生成 CRM/看板/表单向导,浏览器内即跑即改。 Prompt:创建一个CRM:客户列表/详情、搜索筛选、导出CSV、假数据填充
  2. 接入账户/数据:若需登录/多用户/持久化,用 Lovable+Supabase 或 Replit 后端服务。
  3. 部署/分享:让真实用户上手点几下,收集定量/定性反馈。

Bolt 之所以“秒起飞”,关键在 WebContainers 把 Node 跑进了浏览器,毫无本地环境痛点。但这也意味着某些后端场景要交给外部服务。


3)本地助手兜底:把原型打磨到能用

Section titled “3)本地助手兜底:把原型打磨到能用”
  • Cursor:多文件编辑、跨文件改动、PR/Issue/Commit 语义检索,修 Bug 很能打。
  • GitHub Copilot Edits:一条指令,跨多文件修改;企业环境接受度高。
  • Windsurf:支持 MCP 工具接入,适合大仓与流程化“代理式”开发。
  • Zed:轻快、命令/Prompt 库、斜杠指令,团队上手成本低。

设计到代码的桥也在升级:Figma Make GADev Mode MCP Server 让 AI/代理直接读设计数据,生成更贴近设计意图的代码。


4)Claude Artifacts:聊天里跑出来的原型

Section titled “4)Claude Artifacts:聊天里跑出来的原型”

当你只需要单页/轻交互(计算器、图表、卡片翻转),Artifacts 很省事:

  • 对话里生成、实时预览、可分享。
  • 支持“选中元素 → Improve”微调,或用追加指令改版。
  • 限于“非 IDE 级”代码编辑,复杂项目建议导出到 v0/Lovable/Cursor。

工具类型强项是否托管/部署后端/数据库典型场景
v0云端生成式 UI设计还原、默认美观、Figma 集成支持可接框架/API,自行扩展Figma→交互原型、营销页/后台
Bolt.new浏览器 AI 开发0 安装、即改即看、JS/TS 快速迭代可预览/部署需外部服务补鉴权/持久化快速 PoC、内部演示
Lovable云端 AI App Builder一体化:GitHub+Supabase+可视/代码编辑支持原生 Supabase 鉴权/DB/函数MVP/内部工具/小型线上应用
Replit (Agent)云端全栈建前后端、接数据库、直接部署支持内置/外接数据库数据处理工具、脚本服务
Claude Artifacts聊天+运行单页/轻交互原型、分享便捷分享为主非长驻后端计算器、图表、轻交互演示

依据:v0 文档与平台 API、Bolt/WebContainers 官方资料、Lovable GitHub/Supabase 文档与编辑能力、Replit Agent/Docs、Artifacts 官方指南。


「精确还原」

按设计1:1搭建页面,使用 Tailwind + shadcn/ui。保持字体、字号、行高、间距与颜色一致。把导航、搜索、卡片、分页做成可复用组件,导出 Next.js 页面。

「功能补齐」

在搜索栏右侧加入“价格区间”内联筛选。点击后弹出白底浮层,包含最小/最大值输入与滑杆。滑动时更新列表数据(先用假数据)。

B. PRD → 全栈 Demo(Bolt/Lovable/Replit)

Section titled “B. PRD → 全栈 Demo(Bolt/Lovable/Replit)”

「起盘应用」

创建一个“面试管理”系统:候选人列表/详情页、状态看板、评论流、标签筛选。预置10条模拟数据。支持 CSV 导入导出。

「加登录&持久化」(Lovable + Supabase)

接入 Supabase 鉴权,开启 Email 与 GitHub 登录。为候选人、评论建表并落库,列表分页、详情懒加载。生成最小可用权限策略(RLS)。

「上线前检查」

生成一份发布前自查清单:性能(Lighthouse>85)、基础 SEO、移动端兼容、错误监控、日志、回滚方案。

「运行在 Artifact」

做一个“融资计算器”:输入融资额、出让比例、期权池、投资人数量,输出投后估值与 cap table。支持导出 CSV。

这些模板都基于各工具官方能力:v0/shadcn、Bolt/WebContainers、Lovable+Supabase、Artifacts。


7)从原型到上线:一条“当天闭环”的动作清单

Section titled “7)从原型到上线:一条“当天闭环”的动作清单”
  1. 10–30 人可用性走查:发给同事/目标用户,收集“完成率、误操作、停顿点”。
  2. 记录 3 类问题看不懂(文案/信息架构)、点不到(交互稠密度)、跑不动(性能/网络/端能力)。
  3. 用 Cursor/Copilot 批量改:跨多文件快速修复、重构命名、补测试。
  4. 接入数据库与鉴权:Lovable+Supabase 或 Replit 后端,做简单持久化与权限。
  5. 灰度发布:限制路由或白名单;收集日志与埋点,滚动修复。
  6. 评审是否“保留/合并/转正”:保留为原型库?合并进主应用?还是单独转正上线?

  • “浏览器里跑后端”的边界:Bolt 项目偏前端/JS,多用户鉴权、支付、长久存储交给 Supabase/Firebase 更稳。
  • 设计还原创伤:Figma 图拆块导入,组件化命名,减少“一屏塞满”的复杂度。
  • 复杂仓的 Debug:把 Lovable 代码同步到 GitHub → 用 Cursor/Copilot 修 Bug → 回推同步。社区有成熟实践。
  • 聊天原型的上限:Artifacts 很快,但不是 IDE。复杂项目尽早转 v0/Lovable/Cursor。

这套方法的本质是:把“造轮子”外包给 AI,把“定义价值”留给你。 今天起,每个 PM 都可以一周跑 3 个原型,用数据和用户反馈说话。 从想法到上线,速度就是护城河。你觉得呢?

MIT 调研报告 95% AI项目为何失败?美股上市公司 Palantir 凭什么逆势成功?

最近麻省理工学院(MIT)发布的一份调研报告指出,在企业内部试点的生成式人工智能项目中,95%都未能产生实质业务价值。这个惊人的失败率引发了人们对“AI泡沫”的担忧。表面看,企业争相上马最先进的AI模型,但多数项目仍停留在概念验证阶段,对利润表几乎没有贡献。究其原因,并非AI模型本身不够强大,而是工具与组织之间存在“学习鸿沟”——AI系统无法融入企业的工作流,无法获取并学习企业自身的数据和知识。换言之,失败的根源在于集成和应用方式的欠缺,而不在于模型好坏。

举个简单的例子:假如一家零售公司希望利用生成式AI来决策“增加哪些商品库存”。一个通用的大模型也许可以根据行业公开数据给出建议,但如果缺乏该公司内部实时、全面的商品销售和顾客数据,这些建议大概率并不靠谱。数据不相关、接不上业务实际,AI的聪明才智也无从发挥。因此,真正决定AI项目成败的是有没有把AI用对地方、有没有把企业自身的数据用起来

正因如此,新一代被称为“企业AI操作系统”的公司开始扮演关键角色,将企业和AI连接起来。其中的佼佼者——Palantir(柏兰蒂尔)公司——以在军队、政府和大型企业成功部署AI项目而闻名。它的实践表明:只要解决了信任和工程落地这两大难题,AI完全可以创造真实价值。下面我们就从**“信任”和“工程能力”**两个方面,来看看Palantir是如何填补MIT报告揭示的那些AI失败因素的。


信任:从文化到现场,赢得核心客户认可

Section titled “信任:从文化到现场,赢得核心客户认可”

使命文化获得认可: Palantir自2003年创立起就肩负着不同寻常的使命感。公司诞生于“9·11”事件后的反恐需求,其共同创办人彼得·蒂尔和亚历克斯·卡普等人并非单纯逐利,而是怀着“利用数据保障国家安全”的信念创业。这种强调社会责任和价值观的企业文化,使Palantir在早期就获得了政府和军方的信任背书。例如,美国中央情报局的风投部门In-Q-Tel在2004年就投资了Palantir,帮助其打磨针对情报分析的产品。Palantir对数据隐私和安全的重视也深深融入公司DNA——联合创始人卡普是法律和哲学背景出身,他从一开始就强调在软件中融入对公民自由和隐私的保护。正因这种坚定承诺,Palantir逐步建立起**“可靠、安全”的品牌形象**,赢得了政府、军队等高度敏感客户的认可。

现场协作树立信任: Palantir深知,大型传统机构往往IT架构复杂、流程僵化,推行新技术阻力重重。为此,Palantir开创了“前线部署工程师(Forward Deployed Engineer, FDE)”模式,将优秀的软件工程师直接派驻客户一线。这些工程师与客户团队同吃同住,深入了解业务痛点,手把手协助客户把Palantir的软件用起来。实践证明,这种嵌入式协作大大加速了AI系统与客户现有系统的融合。正如一篇分析所指出的:“通过派出有权自主决策的工程师进驻客户现场并以客户价值为导向进行集成,Palantir让传统企业的软件部署进展远快于它们自己尝试时的速度。”在这种并肩作战的过程中,客户的疑虑和问题能够被第一时间发现并解决,Palantir也以实际行动赢得了客户信任。据报道,Palantir甚至曾派工程师携笔记本电脑飞赴阿富汗前线,现场支援美军部队的数据分析需求。这种不计成本、贴身服务的做法,让客户真切感受到Palantir对项目成功的承诺。

严谨安全保障信任: 对于军队、政府这类高度重视数据机密性的客户来说,数据安全与合规审计是选择AI方案的首要考虑。Palantir在这方面可谓行业标杆。其平台从设计之初就贯彻“隐私内嵌”(privacy by design)原则,提供了一整套精细的安全管控功能,包括细粒度访问控制(确保用户只能看必要的数据)、操作审计日志(记录所有数据访问和操作便于追溯)、数据最小化(分析只用到必要的数据)以及匿名化/假名化处理等。Palantir还首创了“基于用途的访问控制(PBAC)”机制,能够随时审计**“谁在什么情况下访问了哪些数据,以及访问原因”**。这种严谨的安全框架使得像美国国防部、情报机构以及英国国家医疗服务体系(NHS)等对数据要求严苛的机构也放心将关键数据交给Palantir平台处理。正因为“又要安全又要AI”的难题有了折中解法,Palantir获得了许多原本对商业软件持怀疑态度的传统客户的信任。在近期的一次采访中,美国国务院官员就盛赞Palantir是“杰出的美国公司”,表示“很自豪能与他们合作,实现外交工作的现代化”。

真实案例积累声誉: 信任最终来自实际战绩。Palantir通过一个个高难度项目证明了自己的可靠和实力——这才是赢得客户心的关键。例如,在反恐战争中,Palantir的分析平台帮助美军识别并摧毁了藏匿的简易爆炸装置(IED)网络:它将海量的电话记录、可疑住所位置、车辆移动和过往袭击数据关联起来,让士兵看清了敌人的作战模式。一名前线指挥官由衷评价这是**“战场上唯一真正管用的软件”。Palantir的软件据称还曾协助规划了2011年猎杀本·拉登的行动,并在2021年美军从阿富汗撤离时用于统筹庞杂的后勤工作。这些真实场景下的成功应用极大增强了客户对Palantir的信任——毕竟经过战火考验的系统更令人放心。此外,在英国,Palantir为NHS提供的数据整合平台成为抗击新冠疫情的中流砥柱。Foundry平台将全国各地的疫情数据、医疗物资和疫苗接种信息汇聚一处,首次让一线医院、NHS总部和政府决策者共享同一份“真实数据源”,保证了呼吸机和防护装备及时配送到位,并支撑了英国效率最高的疫苗接种计划。可以说,每一次关键任务的出色完成,都为Palantir累积了“可信赖”的口碑资产**,这正是其能够持续拓展军政企市场的基石。


工程能力:从现场开发到产品化交付,解决实际问题

Section titled “工程能力:从现场开发到产品化交付,解决实际问题”

赢得信任只是第一步,要让AI真正发挥作用,还必须有过硬的工程落地能力。Palantir在这一方面同样有独到的方法和实力。

即时定制解决问题: 传统企业软件项目往往存在“最后一公里”难题——买来了系统却用不好。但Palantir通过前文提到的FDE模式,将优秀工程师长驻客户现场,能够第一时间根据实际需求调整软件、开发定制功能。这些工程师既精通技术又深谙业务,当发现Palantir平台的某个功能不适应客户流程时,他们可以马上编写代码修补或配置新的数据模型。例如,前线部署工程师曾在空客(Airbus)的飞机总装产线旁办公,与生产人员一起优化Foundry平台的分析模型;许多Palantir工程师甚至常驻在没有互联网连接的“气隙”环境中,为高度机密的数据系统提供支持。这种敏捷贴身的工程服务让问题在现场就得到解决,不需要漫长的反馈迭代周期。在与Palantir合作的企业看来,他们仿佛多了一支随叫随到的超级IT团队。难怪有分析指出,相比企业自行摸索开发,交给Palantir这样的专业团队来做,软件集成推进得要快得多。

打通核心数据脉络: AI要聪明,“粮草”——数据必须先行。Palantir的强项正在于帮助大型机构整合利用分散的核心业务数据,为AI模型提供高质量的养料。其旗舰平台Foundry能够自动从众多孤立的业务系统中提取数据、清洗并转换为统一的分析模型。过去企业内部项目常常耗时数月才能把不同来源的数据整理好,而引入Palantir后据说只需几天就能开始分析。“把3个月的数据准备工作缩短到3天”,这正是Palantir工程能力带来的震撼式提效。例如,在制造业领域,空客公司就借助Palantir Foundry对生产流程数据进行深入分析和优化,成功将A350客机的总装时间显著缩短。又如,在金融行业,摩根大通早期使用Palantir平台强化反欺诈风控,将分散在各部门的交易与客户数据整合,帮助满足金融危机后更加严苛的合规要求。这些案例说明,Palantir具备**连接“数据孤岛”**的非凡能力,把企业关键系统的数据脉络贯通起来,从而让AI应用建立在坚实、丰富的内部数据之上。MIT报告指出,大多数AI项目之所以停滞,是因为通用工具无法适应企业独特的流程和数据。Palantir正是通过强力的数据集成,让AI深度嵌入企业运营肌理,填补了这一鸿沟。

产品化赋能全局: 值得注意的是,Palantir并非一家咨询公司,而是一家产品公司。它并没有陷入为每个客户“定制一个完全不同系统”的泥潭,而是通过技术的抽象和复用,实现解决方案的标准化。Palantir内部的研发团队会将每次前线项目中开发的通用功能提炼出来,加入到其通用平台产品中。早年Palantir专注政府情报领域,打造了Gotham平台;后来他们把在军政项目中积累的数据整合能力提炼为企业版平台Foundry,让大型企业也能开箱即用Palantir级别的数据操作系统。这种策略相当于把一个个定制项目转化为可重复交付的模块,既保持了对复杂业务问题的适应性,又提高了交付新客户时的效率。据业内分析,Palantir正是通过把有共性的技术“卷入”其全球统一的平台,逐步从“工程师人海战术”转向“产品即服务”模式。这样一来,新客户在部署时所需的“前线工程师”数量和时间都在下降(尽管前期仍需要一定辅导),而Palantir的平台能力却在不断增强通用性。这种产品化思维使Palantir能够服务更多客户需求的同时确保高水准的质量控制。通俗地说,Palantir不仅会打一场仗,还会总结打法形成战术手册,从而在下一场仗中更快取胜。

正因为在“信任”与“工程能力”上同时发力,Palantir所推动的AI项目成功率远高于业界平均水平,成为破解“95%失败魔咒”的少数正面案例之一。MIT的报告也佐证了这一点:调查显示,与其闭门造车,不如与像Palantir这样的专业AI厂商合作,前者的成功率只有后者的三分之一左右。那些善于借助外部AI平台并深度定制落地的公司,往往也是少数实现了AI价值变现的成功样板


当我们反观那95%失败的AI项目,不难发现Palantir所秉持的原则正对应着那些教训:用对场景(专注痛点而非盲目追风口)、数据为王(打通内部数据而非只依赖通用模型)、人机协同(让一线人员参与而非空降一个黑盒工具)以及长期演进(沉淀共性产品而非一次性拼凑)。Palantir用实战证明,AI要在企业发挥价值,技术实力固然重要,但更关键的是赢得信任、深度融入。这恰如其CEO卡普所言:“单靠AI本身给不了你答案,关键在于人与AI的协作”。

对于担心AI泡沫的人们来说,Palantir的成功经验提供了一剂强心针:真正有价值的AI落地并非天方夜谭,前提是我们正视那些“看不见的基础工作”——建立信任、整合数据、改造流程、打磨产品。只有补上了这些短板,AI的魔力才能释放出来,转化为看得见的业务成果与社会价值。未来,随着更多企业借鉴这样的范式,我们有理由期待,今天95%的失败率终将被扭转,AI不再是镜花水月,而会成为驱动各行各业变革的坚实引擎。

用 Claude Code 做对「Vibe Coding」:一位 FAANG 工程师的实战流水线

今年硅谷的编码风格有了新名字:Vibe Coding。 不是摆烂,也不是“AI 一把梭”。 是把 Claude Code 当成“听话的初级工程师”,让团队更快、更稳地落到产线。

一个 终端里的智能编码代理:会规划、会读写项目、会跑命令、还能用 slash commands 固化你的工作流。


FAANG 风格的「Vibe Coding」最佳实践(可直接照抄进团队)

Section titled “FAANG 风格的「Vibe Coding」最佳实践(可直接照抄进团队)”

目标:把 Claude 当“可编排的初级工程师”,人类做架构与决策,AI 执行和回报进度。

  • 写设计文档,覆盖架构、边界、集成点。
  • 过一轮资深工程师评审,把痛苦前置。这能避免后面 AI 带着你“高速跑偏”。(源自 FAANG 帖子的流程骨架。)
  • 每个新特性 只开一次 plan-mode,产出任务清单后按清单执行,稳定性显著提高。社区实证这套“刚性流程”能把 Claude 从“偶尔失控”变“像实习生那样靠谱”。
  • 给 Claude 提业务规则 → 生成单元/集成测试 → 人审 → 再让它实现代码。
  • 多个实践与文章都强调:先测后码能显著降低幻觉与回归。

把高频动作写成命令,人人可复用:

  • /spec 生成特性规格
  • /tests <feature> 产出 TDD 测试
  • /implement <feature> 严格按任务清单提交 PR
  • /context 查看上下文使用与工具调用 官方支持自定义命令与命名空间,可把团队流程沉淀进仓库
  • 一次只做一件事;限制目录与文件范围;必要时把日志/CSV pipe 给 Claude;需要时让它自己拉取数据或读链接。
  • 双人评审 + 预发验证,来源于 FAANG 实操。
  • 在终端运行 /security-review 做临时安全扫描,再提交。
  • 追踪从“提案→上线”的 Lead Time、回归缺陷率。行业里有人能做到 ~30% 提速,但以你团队的基线为准。

我们的最小落地包(复制到你的仓库)

Section titled “我们的最小落地包(复制到你的仓库)”

建议在 repo 根目录建 .claude/commands/

.claude/commands/spec.md
You are a Staff Engineer. Convert the user story into a crisp spec:
- Problem, Scope, Non-goals
- Architecture sketch & interfaces
- Risks & open questions
Return Markdown only.
.claude/commands/tests.md
You are a TDD coach. For <feature>, generate unit & integration tests first.
- Cover edge cases, error handling, contracts
- Use project’s test framework
- Do NOT implement code yet
.claude/commands/implement.md
Follow the approved plan. Implement <feature> with tiny commits.
- Reference related tests
- Explain changes in PR body
- Ask before migrating schemas

结合 /context 查看 token 与工具占用,必要时拆分子任务。


  • 把 Claude 当黑盒,一次喂一大坨需求。
  • 跳过测试、跳过评审,只看“能跑就行”。质量会迅速失真,组织会掉进“AI 速度陷阱”。
  • 多特性并行开 plan-mode,上下文漂移、重复返工。

  • 行业大势明确:开发者在快速拥抱 AI,编码与测试环节的自动化程度持续爬升。会用 AI 的团队,边际优势会越来越大
  • 但要赢在质量,必须把 工程化流程 固化到 Claude 的命令与计划里,而不是“随手聊两句让它写”。

Vibe Coding 不是摆烂。 它是把“人类的判断 + Claude 的执行力”组装成一条可量化、可审计、可复用的产线。 从今天开始,给团队加上:先设计 → plan-mode 一次 → 测试先行 → slash commands 固化 → 安全与评审收尾。能快,也能稳。

你觉得这套流水线还缺哪一环?欢迎在评论区聊聊你的经验。

pmcc 让 Claude Code 从 PRD → Epic → GitHub Issues → 生产代码

ccpm(Claude Code PM)把PRD → Epic → GitHub Issues → 生产代码连成闭环,配合 Git worktree 和并行子代理,让你不丢上下文、不堵任务、不埋雷


做 AI 编码,最怕两件事:上下文蒸发并行乱战。 结果就是返工、冲突、进度不可见。

ccpm 的做法很“工程化”:用 GitHub Issues 做唯一真相源,每一行代码都能追溯到规格。Claude 只负责执行,状态、依赖、审计都落在 Issue 里,全团队随时接力。

核心理念No Vibe Coding,所有代码都要能追溯到明确规格。


  • 规范驱动:把 PRD 结构化拆成 Epic/Tasks,再同步成 GitHub Issues。全链路可追踪
  • 并行执行:一个 Issue 不是一个人,而是多条并行工序(DB、API、UI、测试…),在独立 worktree 里并发推进。
  • 上下文保鲜:主线程只做指挥;每个代理在自己的小上下文里干活,互不污染。
  • GitHub 原生协作:Issue = 项目状态;评论 = 审计轨迹;多位人类/AI 实时接力,无需“AI 做了啥”的会。

小加分:ccpm 推荐安装 gh-sub-issue 扩展来管理父子任务;没有扩展就自动回退到任务清单,依然能跑。


PRD → Epic → Task → GitHub 同步 → 并行执行 典型指令流(在 Claude Code 里):

Terminal window
/pm:prd-new memory-system
/pm:prd-parse memory-system
/pm:epic-oneshot memory-system
/pm:issue-start 1235

每一步都有产物:.claude/prds/*.mdepics/*/epic.md、任务 md、以及对应的 GitHub Issues。


  • Issue 做“数据库”:状态就是 Issue 状态;评论天然就是审计。透明且上手零门槛
  • 多代理并行:同一 Issue 下可拆出多条工作流并发推进,显著提升吞吐。
  • Worktree 隔离:每条并行线各自独立分支/目录,冲突和上下文污染大幅减少。
  • 命令即流程:从 /pm:prd-new/pm:issue-sync把 PM 习惯固化成可执行命令
  • 本地快、云端稳:本地先落文件、再显式同步到 GitHub,速度与可控性兼得。
  • 父子任务管理:支持 GitHub Sub-issues(扩展或原生 API),层级清晰、依赖明确。

建议把 ccpm 克隆到你的项目根目录,或把 .claude 目录拷入现有项目。初次使用跑一次初始化。

Step 1|拷入模板

Terminal window
cd /path/to/your-project
git clone https://github.com/automazeio/ccpm.git .

如果你已有 CLAUDE.md,后续可用 /re-init 合并必要规则。

Step 2|在 Claude Code 里初始化

Terminal window
/pm:init

它会:安装/校验 GitHub CLI、登录、安装 gh-sub-issue 扩展、创建必要目录、更新 .gitignore、生成 CLAUDE.md

Step 3|预热上下文

Terminal window
/context:create

现在就能开新特性了:

Terminal window
/pm:prd-new your-feature

PRD → Epic → Tasks → Issues 全套产物一键成型。

gh-sub-issue 安装命令(可选但强烈推荐):

Terminal window
gh extension install yahsan2/gh-sub-issue

支持创建/关联/列出/移除子任务。


  • PRD/pm:prd-new/pm:prd-parse/pm:prd-list/pm:prd-status
  • Epic/pm:epic-decompose/pm:epic-oneshot/pm:epic-sync/pm:epic-show
  • Issue/pm:issue-start/pm:issue-sync/pm:issue-status/pm:issue-close
  • 工作台/pm:next/pm:status/pm:standup/pm:blocked 全部内置在 ccpm 的命令集里,输入 /pm:help 可查看摘要。

  • 从 0 到 1 的 MVP:PRD 不落地最要命。ccpm 用命令把“想法”铆到 Issue 和代码上。
  • 多人并行迭代:同一 Epic 拆成多条流水线,UI/API/DB/测试同步推进,减少串行等待。
  • 存量项目重构:把风险点写进 PRD → Epic,逐步切换与回滚有据可查。
  • 外包/远程协同:Issue 当项目中台,甲乙双方随时插拔,透明交付。
  • 代码审计/合规:完整的“规格 → 代码 → 提交 → 评论”链路,审计友好。

作者也在博客与社区里分享了设计动机与实践经验,值得一读。


  • 把“主线程”当指挥台:只放目标、进度、阻塞;实现细节交给子代理的上下文。
  • 善用 /pm:next:随时切换到下一个最重要的 Issue,保持团队节奏。
  • 先装好 Sub-issues:父子任务清晰后,燃尽图、日报、跨人协作都顺。

  • 没装扩展也能跑,但父子层级会退化为任务清单;装上 gh-sub-issue 体验更丝滑。
  • 别把一切堆进主会话:让每个代理在自己的上下文里“各扫门前雪”,主线程只决策。

我把 ccpm 的定义概括成 8 个字:规格落地、并行不乱。 不靠喊口号,靠命令和产物,说话。

如果你正被“上下文丢失、并行打架、进度不可见”困住,值得立刻试一把。

你觉得最想用 ccpm 解决哪类问题?评论区聊聊。

Claude Code 集成 Cursor、VS Code、JetBrains IDE

很多人装了 Claude Code,却只会在外部终端里用。 其实它已经“打通”主流 IDE:Cursor / VS Code / Windsurf / VSCodium / JetBrains 全系。 好处很直接:一键唤起、IDE 内看 diff、自动共享选中代码与诊断信息,改完还能用 IDE 原生的对比工具过一遍。


  • 快捷唤起Cmd+Esc(Mac)或 Ctrl+Esc(Win/Linux)。

  • IDE 内 diff:更清楚的修改对比,不再困在终端滚屏里。

  • 选区/当前文件上下文自动共享:让 Claude 精准理解你正在看的代码。

  • 诊断信息(Lint/语法报错)自动共享:Claude 跟着你的 IDE 红线走。

  • 插入文件引用Cmd+Option+K(Mac)或 Alt+Ctrl+K(Win/Linux)快速插入 @File#L1-99

以上都来自官方 IDE 集成说明。


VS Code(含 Cursor/Windsurf/VSCodium)一键通

Section titled “VS Code(含 Cursor/Windsurf/VSCodium)一键通”

安装与连接

  1. 打开 IDE 的集成终端
  2. 在项目根目录运行:
Terminal window
claude

VS Code 系会自动安装扩展,随后就能在 IDE 里用到上面的能力。若你从外部终端启动,输入 /ide 即可把 Claude Code 连接到当前 IDE。

确保命令行可用

  • VS Code:在命令面板运行 Shell Command: Install ‘code’ command in PATH。这样 code .、以及 Claude 的 IDE 检测都更稳。
  • Cursor:在命令面板运行 Install ‘cursor’ to shell(也可顺手装 code)。若发现 PATH 被覆盖,检查并调整优先级。

常用配置

  • 运行 /configDiff tool 设为 auto,自动使用 IDE 的 diff 视图。
  • 仍可在任何外部终端用 /ide 绑定到 IDE 会话。

JetBrains(IntelliJ / PyCharm / WebStorm / GoLand…)稳稳用

Section titled “JetBrains(IntelliJ / PyCharm / WebStorm / GoLand…)稳稳用”

使用方式

  • 项目根目录打开终端,运行 claude

  • 打开 Settings → Tools → Claude Code [Beta] 调整:

    • Claude command(如 claude/usr/local/bin/claude,或 npx @anthropic/claude)。
    • WSL 用户可设为:wsl -d Ubuntu -- bash -lic "claude"(把 Ubuntu 换成你的发行版)。
  • 支持 Cmd+Esc/Ctrl+Esc 快捷唤起、诊断共享、IDE 内 diff。

ESC 无法中断? JetBrains 里 ESC 可能被“切回编辑器”占用:

  1. Settings → Tools → Terminal
  2. 取消 “Move focus to the editor with Escape” 或在 Keybindings 里删掉 “Switch focus to Editor”
  3. Apply 这样 ESC 就能正常中断 Claude 的操作。

远程开发提示 JetBrains Remote Dev 需把 Claude Code 插件装在远端主机,并重启 IDE。


  • VS Code 扩展没装上

    • 确保是在 VS Code 集成终端运行的 claude
    • 确保 code/cursor/windsurf/codium 等 CLI 可用,并允许安装扩展。
  • JetBrains 插件“没反应”

    • 确保从项目根目录启动 claude
    • 检查插件启用状态,完整重启 IDE(必要时多重启一次)。
    • 远程开发请确认插件装在远端
  • 工作流建议

    • 同一个项目根目录同时打开 IDE 与 claude,共享同一套路径与文件上下文。
    • /config 设为 diff=auto、按需开启 /vim 模式;这些都是官方推荐的实战做法。

VS Code/Cursor

Terminal window
# 1) IDE 内集成终端
claude
# 2) 外部终端接 IDE
/ide
# 3) VS Code 安装 code 到 PATH(命令面板)
Shell Command: Install 'code' command in PATH
# 4) Cursor 安装 cursor 到 shell(命令面板)
Install 'cursor' to shell

JetBrains

Settings → Tools → Claude Code [Beta]
- Claude command: claude 或 npx @anthropic/claude
- WSL: wsl -d Ubuntu -- bash -lic "claude"
Settings → Tools → Terminal
- 关闭 ESC 抢焦:取消 “Move focus to the editor with Escape”
或删除 “Switch focus to Editor” 绑定

  • PR 驱动:需求 → 在分支里 claude 规划与改动 → IDE 内看 diff → 本地跑测 → 提 PR。
  • Pair-Agent:人盯规划,Claude 执行,IDE 实时看差异与诊断。
  • 多端一致:统一在项目根目录启动,保证所有人看到相同上下文与路径。 实战经验来自官方“最佳实践”文章的建议,结合我们日常使用总结。

装好不是目标,把“人机协作闭环”嵌进 IDE 才是。 今天就把你的 Cursor/VS Code/JetBrains 接上 Claude Code,试一遍 一键唤起 → IDE 内 diff → 诊断共享 → 合 PR 的全链路。 你会发现:代码改得更准,沟通更少,节奏更快

思考题:你的团队更卡在“理解老代码”还是“安全改动大模块”?评论区说说你希望 Claude 在 IDE 里多做哪一步?

Codex 升到 0.23.0:一键 /model 切到 OpenAI 高推理版 GPT‑5

Codex CLI 0.23.0 这波更新,直接把「模型&推理强度」做成了一键切换/model 打开菜单,选 GPT‑5 + High reasoning,复杂任务立刻稳了。


很多人已经在用 Codex 写代码、跑测试、改文件。但以前想换模型、调推理强度,要么改配置,要么重启。现在不用了。0.23.0 新增 /model,还能把 GPT‑5 的推理力度切到 High,甚至支持新出的 Minimal 档位。效率和手感,直接上一个台阶。


  • Slash 命令:终端里直接 /model运行中切模型/推理强度;同时新增 /approvals 控制审批。
  • 推理控制:支持在运行时调整 reasoning effort;GPT‑5 额外支持 minimal(更快、少推理 token)。
  • 登录与版本:Plus/Pro/Team 的 ChatGPT 账号可直接在 Codex 里用上 GPT‑5;本次稳定版为 0.23.0(8 月 20 日)

背景知识:OpenAI 在 GPT‑5 中正式开放了 reasoning_effort 参数(minimal | low | medium | high),控制「想得多不多」。力度越高,通常推理 token越多、延迟也更高;minimal 用于更快的响应


安装 / 升级

Terminal window
npm i -g @openai/codex
# 或:brew install codex
codex --version # 确认看到 0.23.0

(NPM/README 官方安装方法如上。)

登录(ChatGPT 计划直连 GPT‑5)

Terminal window
codex
# 选择 “Sign in with ChatGPT”,Plus/Pro/Team 均可

登录后,Codex 会让你直接用到计划内的最新模型(包含 GPT‑5)。

两种切换姿势

  • 命令行直指高推理(准确写法用 --config 覆盖):

    Terminal window
    codex -m gpt-5 --config model_reasoning_effort="high"

    --model/-m--config 为官方文档的标准写法。)

  • 交互式一键 /model:进入 TUI 后,直接输入 /model,选择 gpt‑5,再选择 High(或 Minimal/Low/Medium)。

想默认高推理?把它写进 ~/.codex/config.toml,或者每次用 --config 覆盖一把。


什么时候用 High reasoning,什么时候用 Minimal/Medium

Section titled “什么时候用 High reasoning,什么时候用 Minimal/Medium?”

适合 High 的场景

  • 复杂重构 / 设计权衡:例如「把 MVC 项目拆成分层 + 依赖倒置,补齐测试」。需要系统性推理和多步计划。
  • 跨语言迁移:如从 Python → Go 且保留并发/错误语义。需要细致的 API/并发模型映射。
  • 疑难 bug 诊断:复杂堆栈、竞态、边界条件,靠更长的思考链更稳。

适合 Minimal/Medium 的场景

  • 脚手架、批量修 lint、重命名,追求速度且不需要长链路推理。minimal 会大幅减少推理 token、显著提速。

我在本地的推荐工作流(可直接抄)

Section titled “我在本地的推荐工作流(可直接抄)”
  1. 开场就高推理(复杂任务)
Terminal window
codex -m gpt-5 --config model_reasoning_effort="high" "为支付模块设计防重试与幂等策略,并补 8 条单元测试"

然后用 /approvals 收紧自动修改权限,重要变更逐条确认。

  1. 中途降档提速 调试通过后,输入 /model 把推理改成 mediumminimal,进入批量小改模式。

  2. 拆解多步任务 把一个大目标拆成多轮:设计 → 接口 → 实现 → 测试。官方也建议**“多回合、一步一回合”**,实际效果更稳。

小贴士:推理力度越高,推理 token越多,延迟可能更高;卡顿时就 /model → minimal/low


  • 我用 ChatGPT 登录时,感觉推理被锁在 Medium? 早期社区确有反馈;但 0.23.0 已在 CLI 内支持运行时切换 /model 与 reasoning effort,实际可在 TUI 里动手改。

  • 命令行切换和配置冲突?命令行 --config 为准(单次覆盖),长期策略写进 ~/.codex/config.toml

  • Minimal 到底有什么用? 官方说明:几乎不产生日志式推理 token,面向对首 token 延迟极其敏感的场景。


Terminal window
# 安装 / 升级
npm i -g @openai/codex && codex --version
# 登录(ChatGPT 计划)
codex # 选择 Sign in with ChatGPT
# 开高推理(复杂任务)
codex -m gpt-5 --config model_reasoning_effort="high"
# 交互式切换(运行中)
/model # 在 TUI 里挑 gpt-5 + High / Medium / Low / Minimal
# 审批策略(更安全)
/approvals

(安装/登录/Slash 命令与本次更新项均见官方 README / Release 说明。)


Codex 0.23.0 让「切模型、调推理」从配置活,变成了一键动作复杂任务就上 High,批量小改就用 Minimal/Medium。这才是工程里的「准心」。去把你这个周末的项目,干成。

你会把 High reasoning 用在什么场景?**你觉得呢?**欢迎在评论区聊聊你的最佳实践。

Uzi 把 Claude Code、Codex、Cursor CLI、aider 等多 AI Agent 并行跑起来

Uzi 是一个命令行工具,用 Git worktree + tmux 把多个 AI 编码代理并行跑起来,每个代理各自一套依赖、各开一个开发端口,写完用 checkpoint 一键合到主分支。


一个代理慢悠悠改页面,另一个代理同时重构后端,再来一个代理写测试。 多线推进的效率,远超“排队等模型”。这就是 Uzi 的工作方式:同一仓库,分枝隔离并行执行可视化监控一键合流。官方 README 给到了完整的安装、配置与工作流示例,且在 2025-06-03 发布了 v0.0.2 版本。


高并发试错:一次起 3~5 个代理,各自探索不同实现或风格,挑最优解合并。 真正的“隔离”:用 Git worktree 给每个代理开独立分支与目录,不互相污染。 自动开发环境:每个代理自动起 dev server,并分配端口,方便你即时预览。 全程托管:tmux 管会话、uzi auto 自动“回车确认”工具调用、ls -w 实时看进度和 diff。 一键收官checkpoint 把选中的代理分支 rebase+commit 回当前分支。

行业观察:也有用容器把代理隔离并行的方案;Uzi 走的是 worktree 路线,在 monorepo 里也很顺手。InfoQ 近期报道也点名对比了这两类思路。


依赖:Git、tmux、Go,以及你常用的 AI 工具(如 Claude、Codex、Cursor、aider 等)。

Terminal window
# 安装
go install github.com/devflowinc/uzi@latest
# 确保 GOBIN 在 PATH 里
export PATH="$PATH:$HOME/go/bin"

根目录新建 uzi.yaml

devCommand: cd astrobits && yarn && yarn dev --port $PORT
portRange: 3000-3010

写法要点

  • devCommand 里把依赖安装也写上,因为每个代理在独立 worktree,需要自己装依赖。
  • $PORT 必须留作占位,Uzi 会自动分配端口。
  • 官方还给了 Next.js / Vite / Django 的示例行。

推荐工作流:从任务到合并,5 步走

Section titled “推荐工作流:从任务到合并,5 步走”

1)并行开工

Terminal window
uzi prompt --agents claude:3,codex:2 "Implement a REST API for user management with authentication"

指定多代理与数量,也支持 random 随机命名。

2)无人值守

Terminal window
uzi auto

自动“回车确认”工具调用与续写提示,跑着就行。

3)盯盘看进度

Terminal window
uzi ls -w

watch 模式每秒刷新,能看到 AGENT/MODEL/DIFF/ADDR/PROMPT 等。

4)中途指挥

Terminal window
uzi broadcast "Make sure to add input validation"
uzi run "npm test"

广播额外指令;也能在所有代理里跑同一命令(带 --delete 跑完关窗)。

5)选优合入

Terminal window
uzi checkpoint funny-elephant "feat: add user management API"

把命中的代理分支 rebase 到当前分支并提交信息。

开发者实战文章里也给过类似 checkpoint/kill 的用法推演,便于你按需裁剪。


一个界面组件给 3 个代理:极简风 / Material 风 / 企业风。 每个代理都起了本地端口,你直接多窗口对比,挑最好的一键 checkpoint

后端认证要不要换库?要不要分层?把 2~3 条方案平行跑,读 diff 看复杂度、读端口看性能感知,选更稳的路线。

一个代理写 API,一个写 e2e 测试,另一个写文档与示例。最后只把“都跑通”的那个合入,其它分支随时 kill 清理。


  • Uzi(worktree):轻、快、Git 原生,适合同仓多实验;对 tmux 友好。
  • 容器方案:更强隔离、更重运维、适合跨语言/系统依赖的极端场景。
  • 行业观点:InfoQ 指出 Uzi 的 worktree 隔离在 monorepo 场景能避免代理互相干扰。

  • 端口冲突portRange 够大,且别被占用。
  • 依赖重复安装:把 npm/pip install 写进 devCommand,每个代理自己装。
  • tmux 不熟:建议学会基本窗口/面板切换,提高可见性。
  • 成本与噪音:并行=更多 tokens;建议小任务先试 2~3 个代理,再扩大编队。(经验法,结合社区讨论的“并行心智负担”提醒。)
  • 安全与密钥:不要把敏感 env 硬编码进 prompt,按环境变量注入。

Terminal window
# 安装
go install github.com/devflowinc/uzi@latest
export PATH="$PATH:$HOME/go/bin"
# 配置
# uzi.yaml: devCommand + portRange
# 并行开工
uzi prompt --agents claude:2,random:2 "Build a todo app with React"
# 无人值守
uzi auto
# 监控/广播/批量命令
uzi ls -w
uzi broadcast "Add error handling"
uzi run "npm test"
# 合并/清理
uzi checkpoint agent-name "feat: ..."
uzi kill agent-name | uzi kill all

并行不是炫技。它是让团队“同时走多条正确路”的生产力工具。 把 Uzi 接入你的日常流,先小规模试点,再扩到复杂项目。走通一次,你很难回去排队等模型的旧节奏。

思考题:你会先把哪个项目拆成 3 条并行路线?为什么?

VibeTree 把 Claude Code、Codex、Cursor CLI、aider 等多 AI Agent 并行跑起来

VibeTree = 多 Git worktree 并行开发 + 持久终端 + Claude Code 一键接入,不切分支、不丢上下文,效率起飞。


写功能、改线上、再回到大重构……不停 git stash,上下文来回丢,太伤流。 VibeTree 这款开源桌面应用,把 并行 git worktree每个分支自带持久终端Claude CLI 深度整合 整到一起。一个项目开 N 个“分身”,各自跑任务、各自聊 Claude。


  • 并行开发:一仓多 worktree,同步推进功能/热修,告别 stash
  • 持久终端会话:每个 worktree 自带终端,状态不丢。
  • Claude CLI 集成:在每个终端直接 claude,用 /ide 连接 VS Code/Cursor,文件上下文对齐。
  • 一键打开 IDE:从 VibeTree 直达 VS Code 或 Cursor。
  • 多仓 Tab 管理:多项目并行,界面切换顺滑。
  • 跨平台:macOS / Windows / Linux,提供安装包。当前最新版 v0.0.1(Alpha)

小提醒:仓库 Issues 里有用户反馈的早期问题,例如 Windows Defender 误报macOS 15.6 ARM64 包被标记为损坏 等,安装前可以先看一眼。


为什么用 worktree,比多 clone/频繁切分支更香?

Section titled “为什么用 worktree,比多 clone/频繁切分支更香?”
  • 一仓多目录:每个目录就是一个分支的“工作副本”,共享 .git轻量且互不干扰。
  • 切换零成本:线上告急?直接进 hotfix 的工作目录,功能分支不受影响。

  1. 前往 Releases 下载:
  • macOS:.dmg(Intel & Apple Silicon)
  • Windows:.exe
  • Linux:.AppImage.deb 双击安装即可。
Terminal window
# 安装依赖
npm install
# 开发调试
npm run dev
# 生产构建
npm run build
# 打包应用
npm run package

以上脚本已在仓库配置好。

前置依赖:已安装 Git;如需 AI 能力,建议安装 Claude Code CLI(npm 一条龙,几分钟起飞)。


  • 新建功能分支 worktree,同时再建一个 hotfix worktree。
  • 两边各有一个持久终端,各聊各的 Claude。线上炸了也不慌
Terminal window
# 在项目根目录旁创建两个工作目录(示例)
git worktree add ../proj-feature -b feature/checkout main
git worktree add ../proj-hotfix -b hotfix/urgent main

原理:worktree 让“一个仓库,多套工作目录”成为原生能力。

  • A worktree 做大重构;B worktree 保持干净基线,随时对比/回归。
  • 两个终端里开 claude,让 AI 帮你“拆分任务 + 撰写测试”。
  • 在对应 worktree 的终端里:claude → 输入 /ide,即刻连接当前打开的 VS Code/Cursor。
  • Claude 与 IDE 共享同一项目根目录,上下文一致,沟通更准。
  • VibeTree 的 Tab 界面 同时开多个仓库,卡点切换不乱线。
  • 黑/白主题跟随系统,手动也能切。
  • 终端里 claude 即用;需要个性化外观、状态行等,可用 /config 调整。

Terminal window
# ① 安装 VibeTree(或源码构建)
# ② 准备两个工作目录(feature & hotfix)
git worktree add ../app-feature -b feature/payflow main
git worktree add ../app-hotfix -b hotfix/checkout main
# ③ 打开 VibeTree:在两个 worktree 里各开一个终端
# ④ 终端输入 claude;如需连 IDE,输入 /ide
  • 现在你可以:在 feature 里写新功能;hotfix 里复现并修复线上。
  • 两个空间互不打扰,两个 Claude 同时在线

路线图与已知问题(透明预期)

Section titled “路线图与已知问题(透明预期)”
  • 路线图:将支持 Claude 完成/需要输入的系统通知移动端访问 Claude Code 等。
  • Alpha 状态:请关注 Issues 区的 Win 误报macOS ARM64 包“损坏”提示隐私文档补充首次启动引导 等讨论。

  • 独立开发者/小团队:需求多而杂,必须并行推进。
  • AIGC 工作流玩家:想把 Claude 真正嵌入分支与终端。
  • 运维与应急:线上一响,切到 hotfix 工作目录,零切换成本

VibeTree 不是再造 IDE,它是让“并行 + AI”落地的操作系统级小工具。 把“一个仓库多工作区”的底层优势,和 Claude 的上层智能,组合成可复制的日常节奏。 你会惊讶:不切分支的每一天,都更专注。

你觉得 VibeTree 最打动你的点是哪一个?评论区聊聊。

Claude Code 伴侣:一键号池切换、第三方模型接入、日志可观测

给常年折腾 Claude Code 的你,一个更稳、更透明的“中控台”。


用 Claude Code 写代码很爽,但上游端点不稳、来回切换麻烦、日志抓不到就很心累。 Claude Code 伴侣(Claude Code Companion)把这一切打包成一个本地 API 代理:拖拽排序就能优先级切换号池,异常会自动故障转移,还自带可视化管理台完整请求/响应日志。新手也能 10 分钟起飞。


支持多端点优先级重试 + 故障转移。某个号池抽风,自动切到下一个,恢复后再拉回。你几乎感知不到抖动

内置 /admin 管理台,能增删改端点、看实时日志、配路由规则。排障从“猜”变“看”。

原生 Anthropic,也支持OpenAI 兼容入口,像 OpenRouter、火山千问、Moonshot K2、GLM 这类都能接;配好默认模型名就行。

一行环境变量即可关掉非必要上报/遥测;企业或重视隐私的个人很刚需。


  • 多端点负载均衡 + 故障转移
  • 上游响应格式校验(不合规就重连)
  • OpenAI 兼容模型接入
  • 智能故障检测/恢复
  • 标签路由(按路径、Header、内容分流)
  • 请求日志 + Web 管理(/admin) 以上均出自官方 README。

到 Releases 选你的平台(Win/Linux/macOS Intel/ARM),解压即可。单文件运行,无外部依赖

双击或命令行启动,目录会生成默认 config.yaml

浏览器访问 http://localhost:8080/admin,在 Endpoints 页添加上游端点(URL、鉴权、类型:Anthropic / OpenAI 兼容)。 拖拽即可调整优先级,实时生效

在 Claude Code 运行环境里设置:

Terminal window
# 必备:把请求打到本地代理
export ANTHROPIC_BASE_URL=http://localhost:8080
# 必填但可随意:非空即可
export ANTHROPIC_AUTH_TOKEN=dummy-token
# 建议:拉长客户端等待,避免上游超时导致前端先断
export API_TIMEOUT_MS=600000
# 建议:关闭非必要流量(遥测/错误上报/bug 命令/自动更新)
export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1

说明:ANTHROPIC_AUTH_TOKEN/CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC 等变量均在官方文档有说明或等价配置;BASE_URL 路由 LLM 网关也在官方给出标准做法。

补充:如果你接 OpenAI 兼容网关(如 LiteLLM/OpenRouter 等),官方推荐统一网关地址方式: export ANTHROPIC_BASE_URL=https://<your-gateway>(再配 token/默认模型)。


把多个号池/上游按常用→备用顺序添加,靠拖拽排序。某个失效会自动拉黑并转发到下一个;恢复后后台检测再放行。无需重启代理或 Claude Code

  • 官方提供 Anthropic 形态入口的(如 GLM、K2),直接当 Anthropic 端点用。
  • 只有 OpenAI 兼容入口的(如 OpenRouter、部分国内云),添加OpenAI 兼容端点,把默认模型名填上即可。 这套接法在 README 已明确说明,另外像 DeepSeek 也公开了 Claude Code 直连指引(设置 ANTHROPIC_BASE_URLANTHROPIC_AUTH_TOKEN、模型名)。

基于请求路径、Header 或内容动态分流到不同端点,适合做稳定性灰度成本路由场景特化

/admin 查看实时请求/响应日志,定位 4xx/5xx、超时点、返回格式异常;支持端点拉黑/恢复观察。


进阶:把它当“企业级 LLM 网关”的前哨

Section titled “进阶:把它当“企业级 LLM 网关”的前哨”
  • 与 LiteLLM/自建网关配合:官方文档给了LLM Gateway方案,统一鉴权、用量追踪、成本控制、审计与模型路由。Claude Code 通过 ANTHROPIC_BASE_URL 对接即可。
  • 更精细的隐私/遥测开关CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1 一把梭,也可分别用 DISABLE_TELEMETRYDISABLE_ERROR_REPORTINGDISABLE_BUG_COMMANDDISABLE_AUTOUPDATER 等变量精确控制。

Q1:Claude Code 不走代理? 检查是否在同一 shell设置了 ANTHROPIC_BASE_URLANTHROPIC_AUTH_TOKEN;项目级 settings.json 也能统一注入 env

Q2:第三方模型报 400/格式不符? OpenAI 兼容端点需选“OpenAI 兼容”类型,并正确设置默认模型名;伴侣会校验返回是否符合 Anthropic 协议,不符会触发重连。

Q3:我能用自带的超时控制吗? 可以。把 API_TIMEOUT_MS 调大,避免前端先超时导致误判失败;Bash/MCP 等也有各自的超时变量。


  • 使用第三方网关/号池前,确认服务合规条款允许数据不被滥用
  • Claude Code 官方已提供数据使用关闭非必要流量的选项,强烈建议开启。

Claude Code 伴侣的定位很清晰:做你本地的“稳定中控 + 透明路由器”。 从今天开始,把端点管理、模型切换和问题排查“图形化”,让 AI 编程真的省心

你觉得还应该加哪些“自动化小功能”?例如成本优先/速度优先一键切换?评论区见!


macOS/Linux:

Terminal window
export ANTHROPIC_BASE_URL=http://localhost:8080
export ANTHROPIC_AUTH_TOKEN=dummy-token
export API_TIMEOUT_MS=600000
export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1
claude

Windows PowerShell:

Terminal window
$env:ANTHROPIC_BASE_URL="http://localhost:8080"
$env:ANTHROPIC_AUTH_TOKEN="dummy-token"
$env:API_TIMEOUT_MS="600000"
$env:CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC="1"
claude

如需接入网关(如 LiteLLM/OpenRouter),把 ANTHROPIC_BASE_URL 改成网关地址即可。

Qoder:阿里发布一款“会自己干活”的 AI IDE

Qoder:阿里发布一款“会自己干活”的 AI IDE

Section titled “Qoder:阿里发布一款“会自己干活”的 AI IDE”

Qoder 把“自动规划+自动编程+自动测试”做成了一个闭环,直接把 AI “写规格→开工→验收”搬进了 IDE 里。


这两年 AI IDE 最卷的,不是补全,而是“代理式编程(Agentic Coding)”。

Qoder 就是冲着这个来的:Quest Mode 负责拆任务、写 Spec、跑执行;Repo Wiki 负责把仓库一口气读懂;Memory/Rules 让它越用越懂你。定价也走通了会员 + Credits 的闭环,已经不靠广告生存。


1)Quest Mode:把需求一句话丢给代理,等报告验收

Section titled “1)Quest Mode:把需求一句话丢给代理,等报告验收”
  • 支持自然语言下单:功能开发、修 bug、重构、补测都行。
  • 会先自动产出技术规格(Spec),你可编辑确认;再异步执行,最后生成Task Report
  • 全程有 Action Flow 进度与日志;随时加新要求它会动态改计划

这是真正在 IDE 里落地的“规格驱动开发”。

2)Repo Wiki:把你的仓库变成 AI 可读的“知识库”

Section titled “2)Repo Wiki:把你的仓库变成 AI 可读的“知识库””
  • 打开项目或 Git 变更后自动构建 Wiki(4k 文件量级约 120 分钟)。
  • 上限 6,000 文件,针对架构问答定位代码加新特性/修复特别快。

3)Context/Tools/MCP:把“对的上下文”塞进模型,还能接外部工具

Section titled “3)Context/Tools/MCP:把“对的上下文”塞进模型,还能接外部工具”
  • @file/@folder/@gitCommit/@image/@rule 快速喂上下文。
  • 内置项目搜索、文件编辑、终端执行、问题扫描、网页检索等工具。
  • 支持 MCP,可接 API、数据库、本地工具;上手先用 SSE,进阶再玩 STDIO。

4)Memory & Rules:越用越懂你,还能团队共享“规约”

Section titled “4)Memory & Rules:越用越懂你,还能团队共享“规约””
  • 长期记忆:个人偏好 + 项目记忆,冲突时以 Rules 为准。
  • 项目规则.Qoder/rules,支持“始终应用/模型决策/按文件匹配”。

5)Next Edit Suggestion(NES):不只补全,还会“接着改对的地方”

Section titled “5)Next Edit Suggestion(NES):不只补全,还会“接着改对的地方””
  • 一键 Tab to Jump 到目标位置;重命名、重构、批量补注释都更顺。

① 下载与安装 前往下载页安装(Windows/macOS/Linux 均支持),双击即可。

② 登录 IDE 右上角头像进入登录页面,完成账号绑定。

③(可选)公司内网/代理 若需走 HTTP 代理,按官方指引在 Qoder Settings → Proxy 配置。

提示:快捷键在 Keyboard Shortcuts 页面一览全掌握。


  • Free($0/月):带 2 周 Pro 试用Completions & Next Edits 不限量;Chat/Agent 有有限 Credits
  • Pro(预览期免费):在 Free 基础上,2,000 Credits(Chat/Agent 请求);解锁 Quest Mode / Repo Wiki
  • Teams(即将上线):Admin、SSO、集中结算。
  • Credit Packs:用完可随买随充。

价格表(预览期)

方案价格权益要点
Free$0/月2 周 Pro 试用Completions & Next Edits 不限量;Chat/Agent 有限 Credits
Pro(预览期免费)$TBD/月2,000 Credits(Chat & Agent);解锁 Quest Mode / Repo Wiki
Teams(即将上线)$TBD/用户/月Admin、SSO、集中结算
Credit Packs按需购买用完可加油,灵活扩容

以官网实时信息为准;预览期细节可能调整。

Credits 怎么扣? Chat、Agent、Quest 等都会按模型价格 × token扣;失败请求不扣;月配额用尽会回落到基础模型,下月重置。

行业对标:Cursor 采用“订阅 + 请求限额/代理用量”的混合模式;Claude Code 也走会员+增值的路径。说明 AI IDE 的会员化闭环已跑通,这也是国内竞品跟进的底层原因。


推荐使用场景(给产品/后端/前端/DevOps 的落地清单)

Section titled “推荐使用场景(给产品/后端/前端/DevOps 的落地清单)”

A. 功能直达:一口气做完“规格→实现→验证”

  • 例:给现有服务加“多租户计费”。把需求丢给 Quest Mode,让它先产 Spec,再开工与回归报告。

B. 老仓库快速上手

  • 打开项目等它生成 Repo Wiki,先问“订单流怎么走”“哪个模块依赖 A/B/C”。

C. 大规模重构/替换框架

  • Rules 约束代码风格与注释规范,再让 Agent 批量改;NES 辅助逐步落地。

D. 跨语言迁移/补单测

  • @folder + @gitCommit 选定范围,让代理定位关键路径补单测生成差异报告

E. 接第三方系统/私有工具

  • 通过 MCP 接进你们的内部 API、数据库、脚本,把“查数/回写/批处理”自动化。

F. 团队协作与知识沉淀

  • Repo Wiki + Memory 固化公共知识;Rules 进仓库随代码走,新人当周就能输出。

快速起飞:我的 30 分钟上手剧本

Section titled “快速起飞:我的 30 分钟上手剧本”
  1. 安装并登录(5 分钟)。
  2. 配置代理(内网必做,3 分钟)。
  3. 打开业务仓库,等 Repo Wiki 初始化(后台跑,不影响干别的)。
  4. Rules 写下“项目注释/提交信息/测试要求”的三条硬规
  5. 开一个 Quest:描述一个明确的小功能,先看它产出的 Spec,必要时补充边界与验收标准。
  6. 观察 Action Flow,中途追加需求,看它如何调整计划。
  7. 根据 Task Report 决定 Accept/Discard;用 NES 快速微调。

  • Qoder 的价值在于:从“补全”跃迁到“交付”。有 Spec、有计划、有回执。
  • 体验关键点:Repo Wiki 的“面向架构的上下文”、Rules 的“可治理”、MCP 的“可扩展”。
  • 商业模式:会员 + Credits 已成行业共识,Qoder 的“预览期免费 + 试用 Pro + 额外 Credit 包”,对迁移成本很友好

  • 你准备把哪些重复性改动交给 Quest?
  • 你们团队最该沉淀成 Rules 的三条规范是什么?
  • 如果接入 MCP,你最想让代理人摸哪个内部系统?

谷歌 Gemini:一套完整的 AI 教育教学系统:老师分配 AI 专家,学生自定测验,隐私与合规

这不是“又一个聊天机器人”。这是把学习流程课堂管理内容生产测评反馈隐私合规一锅端的系统级升级。


这届 ISTE 大会后,Google 直接把 Gemini for Education 做成了学校级的 AI 基建:教育版 Gemini(基于 2.5 Pro)免费随 Workspace 教育版开放,并把老师、学生、管理员的关键动作全串起来。

更猛的是,老师能创建并分配“Gems(AI 专家)”,NotebookLM 一键出视频概述当微课,Forms 里有 Gemini 自动出题,Vids 里用 Veo 3 生成 8 秒带音效短视频。学生Canvas 出个性化测验,答案里还会给交互式图表帮助理解。管理员能在 Vault 里检索全域 Gemini 对话,看使用报告与合规留痕。

最关键的一句:教育场景里,聊天数据不用于训练模型(企业级数据保护)。


一、系统全景:教育场景 × AI 的新范式

Section titled “一、系统全景:教育场景 × AI 的新范式”
  • Gemini for Education:基于 Gemini 2.5 Pro,默认接入高阶模型、管理员可控,免费包含在 Workspace 教育版。
  • Gemini in Classroom:对所有教育版免费开放,30+ 新 AI 能力用于备课、差异化教学、词汇表等。
  • Teacher-led AI:老师将 Gems 与 NotebookLM 笔记本直接分配给学生(Classroom & LTI 接入 Canvas/Schoology)。
  • NotebookLM 视频概述:把资料一键生成讲解视频与要点。
  • Veo 3 in Vids:8 秒短视频,原生音效/旁白,适合实验演示、课程预告。
  • Gemini 表单:Docs/Slides/PDF 一键生成测验/问卷,并可 AI 总结作答。
  • Gemini Canvas 测验:18+ 学生可自生个性化练习,正向扩展到未成年。
  • 隐私与合规Common Sense 隐私印章Vault 可检索对话、管理员可设定留存策略与报表。


二、老师这样用:备课提效 × 差异化教学

Section titled “二、老师这样用:备课提效 × 差异化教学”

高频用法清单

  1. 5分钟备出“分层课堂”脚本

    • 让 Gemini 依据同班三档水平,生成“同主题不同深浅”的讲稿与练习;自动附例句与可视化提示。
  2. 自建“交互式模拟”Gem(AI 专家)

    • 把本周作业+阅读材料上传,生成可追问的互动专家;课堂前分配给学生预习,课堂后用于巩固。可共享给同备课组。
  3. NotebookLM → “视频概述”微课

    • 教学大纲/讲义一键生成 1–3 分钟视频,适合翻转课堂与缺勤补课。
  4. Forms 一键出题 + AI 批阅摘要

    • 用“帮我创建表单”,从 Doc/Slides/PDF 生成测验;提交后自动摘要答题要点与薄弱项。
  5. Vids × Veo 3 生成演示短视频

    • 8 秒“实验/现象”演示开场,附音效;吸睛又省时。

三、学生这样学:自适应练习 × 可视化理解

Section titled “三、学生这样学:自适应练习 × 可视化理解”
  • Gemini Canvas 个性化测验:输入复习范围,系统按薄弱项出题,逐步反馈。
  • 交互式图表 / 图解:Gemini 的回答中加入互动可视化,帮助理清复杂概念与多步推理。
  • 接收课堂 Gems 与 NotebookLM:随堂接入老师分配的“AI 专家”和资料本,边学边问。

自习提示词示例(可直接粘贴)

  • 「根据我这份错题本,生成 15 题混合难度测验,每题给一步提示,不要直接给答案。」
  • 「用三张图分别解释‘熵增’的直觉、公式推导关键步、现实中的类比。」

四、管理员视角:合规、可见、可控

Section titled “四、管理员视角:合规、可见、可控”
  • 权限与年龄分级:控制谁可用 Gemini/NotebookLM,18+ 功能差异可配置。
  • Vault eDiscovery按域检索 Gemini 对话、导出法务留存;Workspace 更新已覆盖教育版。
  • 使用报告与留存策略:查看谁在用、用多少,设定聊天保存与自动删除周期。
  • 隐私背书Common Sense 隐私印章,教育账户聊天不用于模型训练、不做人工审阅。

额外可选:开启 Temporary Chats(临时对话),不计入个性化与训练,短时留存。


五、落地范式:一节课怎么从 0 到 1

Section titled “五、落地范式:一节课怎么从 0 到 1”

目标:60 分钟《电磁感应》

  1. 课前:老师用 NotebookLM 生成“视频概述”+ 词汇表;Vids 用 Veo 3 做 8 秒引入短片。
  2. 课堂:分配“交互式模拟”Gem,分组追问“法拉第实验”的变量影响;Gemini 回答中嵌入互动图解。
  3. 测评:Forms 自动出一份随堂测验,课堂结束后 Gemini 总结班级薄弱项。
  4. 课后:学生用 Canvas 生成个性化测验,针对错题重练。
  5. 管理:管理员在 Vault 留痕并导出抽样对话,合规无忧。

六、边界与风险:别把 AI 当“答案贩卖机”

Section titled “六、边界与风险:别把 AI 当“答案贩卖机””
  • 学术诚信:建议把 AI 用在“启发与结构化”,避免直接产出可抄袭的终稿。
  • 数据最小化:教育账号已默认“不用于训练”,仍建议避免上传敏感身份信息。
  • 能力与依赖:AI 擅长“垫高下限”,注意培养自解释多步推理能力,防止过度依赖。
  • 可追溯性:重要考试周,配合 Vault 抽检与使用报告,形成学校自有“AI 使用准则”。

Google 这波是把“AI + 教育”的工具级整合做成了系统级范式。老师有“AI 同事”,学生有“AI 学伴”,管理员有“AI 合规仪表盘”。内容、流程、隐私、治理四条线同时闭环。

现在就能做的第一步:选一节下周要上的课,按上面的“0 到 1”范式跑一遍。 你会发现,AI 不只是在“帮你”,而是在“重排课堂”。你觉得呢?


Claude Code 平替:iflow-cli 把 AI 编码塞进终端

iFlow CLI 把“多智能体 + MCP 工具 + 工作流自动化”塞进你的终端,写代码、改 Bug、管文件、跑数据、连 GitHub Actions,一条龙搞定。


写代码时老在 CLI 和浏览器间来回切?

想让“AI 同事”直接在你的本地项目里动手干活?

这篇给你一把顺手的“瑞士军刀”:iFlow CLI。它能分析仓库、分解任务、调用子代理、联动 MCP 工具,从文件整理复杂自动化都能上。


  • 子代理(SubAgents):把一个 CLI 变成“专家小队”,按领域协作;可用 /agent 管理。
  • 内置开放市场:一键装 MCP 工具与子代理,像装插件一样扩容能力。

官方页面也强调:免费模型市场MCP 市场Agent 市场,面向开发自动化场景。

  • 默认:只读不动手。
  • 计划模式:先出方案再执行。
  • 接受编辑:仅改文件。
  • YOLO最大权限、可执行任何操作(慎用)。

参考同类工具的“无权限确认模式”(如 Claude Code 的 --dangerously-skip-permissions),确实高效,但要注意安全边界。

  • 支持在 CLI 直接贴图、搜索联网、对话自动压缩与恢复
  • VS Code / JetBrains 插件GitHub Actions 官方工作流动作,CI 里能直接“跑 AI”。

维度iFlow CLIClaude CodeGemini CLI
定位多智能体 + MCP 市场 + 自动化的“终端 AI 团队”代理式编码为核心的终端工具面向开发者的开源 AI 终端代理
费用/配额官方强调免费模型市场可用走 Anthropic 计费链路官方预览期免费额度(Gemini 2.5 Pro,较高 RPM/日配额)
权限/模式默认/计划/接受编辑/YOLO 四模式计划模式、可跳过权限(危险)ReAct 循环 + 工具/MCP
扩展内置 Open Market 装 MCP/子代理支持自定义子代理、MCP原生 MCP、搜索、Code Assist 集成

依据:iFlow README 与平台页;Claude Code 官方文档(计划模式、子代理、权限机制);Gemini CLI 官方博文与文档。


系统需求:macOS 10.15+ / Ubuntu 20.04+ / Debian 10+ / Windows 10+,Node.js 22+,建议 Bash/Zsh/Fish。

Terminal window
bash -c "$(curl -fsSL https://cloud.iflow.cn/iflow-cli/install.sh)"

Terminal window
npm i -g @iflow-ai/iflow-cli
  1. 安装 Node.js(官网安装包)
  2. 重新打开 CMD/PowerShell
  3. npm install -g @iflow-ai/iflow-cli
  4. iflow 启动
  • 提供 nvm 安装包与 Node/npm 镜像指令,装好后同样 npm -g @iflow-ai/iflow-cli
  • 建议使用 iFlow 原生认证;也可走 OpenAI 兼容 接口。
  • API Key 在 iFlow 个人页生成后,按提示粘贴到终端即可。

Step 1:进入仓库并启动

Terminal window
cd your-project
iflow

Step 2:/init 建模

/init
> 读取 requirement.md,生成技术方案文档并实现

会自动生成 IFLOW.md,记录结构与上下文。

Step 3:工作流执行

  • /agent 调度专家小队
  • /mcp 安装/启用工具
  • iflow --resume 接着聊
  • iflow -h 看全部命令

想在 CI 里跑?用 iFlow CLI GitHub Action,支持自定义模型、超时、工作目录、MCP 服务器配置,还能把执行结果写到 PR Summary。


推荐的 10 个日常工作流(含示例话术)

Section titled “推荐的 10 个日常工作流(含示例话术)”
  1. 仓库体检: “分析项目架构、关键依赖与潜在安全点,给出改进建议与风险优先级。”(可配 /init

  2. 需求→技术方案→实现: “根据 requirement.md 产出技术设计与任务清单,再分配子代理完成编码与自测。”

  3. Bug 追踪: “请求后出现 NPE,定位根因、给出复现脚本与补丁 PR。”

  4. 自动文档(配 CI): “/init 后生成 API 文档/架构图,合并 PR 时更新。”(GitHub Action 示例已内置)

  5. 数据分析: “读取 sales.xlsx,输出同比/环比与可视化图表,附洞察摘要。”

  6. 文件治理: “把桌面文件按类型归档,重命名为 YYYY-MM-DD_序号。”

  7. 信息检索: “比较 iPhone 最新价格并给出性价比推荐,列渠道与备注。”(支持搜索)

  8. 投资小脚本: “每天抓取指定股票收盘价,邮件推送涨跌幅 Top 5。”

  9. 企业协作集成(MCP): 安装 DevOps / 文档 / 检索类 MCP 服务器,和企业套件打通。示例:阿里云 DevOps MCPContext7 MCP

  10. 多模态讨论: 在终端 Ctrl+V 粘贴图片,让它读图评审 UI 或读错误截图给诊断建议。


  • 优先用“计划模式/接受编辑”,让它先想清楚、再动手
  • YOLO 模式适合一次性脚手架/样例生成,不要给生产目录无差别权限。类比社区对“跳过权限确认”的讨论,便利与风险并存。
  • 在 CI 使用 iFlow Action 时,单仓库最小权限只读 Token超时与日志审计要开启。

  • 你重度使用 Anthropic:在本地主力用 Claude Code,CI 与自动文档交给 iFlow Action,两边吃。
  • 想要免费额度与谷歌生态:Gemini CLI 走 ReAct + MCP,本地探索很香;复杂多智能体/市场扩展,用 iFlow CLI。

  • 安装:bash -c "$(curl -fsSL https://cloud.iflow.cn/iflow-cli/install.sh)" / npm i -g @iflow-ai/iflow-cli
  • 首启:iflow/init
  • 市场:/mcp/agent
  • 模型与接口:编辑 ~/.iflow/settings.json(支持 OpenAI 兼容)
  • 恢复会话:iflow --resume
  • CI 集成:iflow-cli-action(输入 promptapi_keymodelsettings_json 等)

把“会干活的 AI 团队”放进终端,你的人效会直线上去。iFlow CLI 的子代理、开放市场与 CI 打通,覆盖了从个人到团队的完整链路。用一周,你就会离不开它。

你觉得 iFlow 哪个功能最戳你?还有哪些场景想试?评论区见。

Claude Code 悄悄开了个“1M 上下文窗口”:/model sonnet[1m]

Claude Code 悄悄开了个“1M 上下文窗口”:/model sonnet[1m]

Section titled “Claude Code 悄悄开了个“1M 上下文窗口”:/model sonnet[1m]”

有人在网上爆料,部分 Claude Code Max(20x) 用户,已经能用 /model sonnet[1m] 切到 Sonnet 4 的 1M 上下文。Anthropic 官方也确认 Sonnet 4 的 1,000,000 token 长上下文已公开测试,但主要先在 API / Bedrock 放开,桌面端与 Claude Code正逐步跟进,少量用户可能已“灰测”到。


1M 上下文意味着你可以把整个中型代码库、成打的技术文档、或一摞合同一次塞进来做分析,少切块、少来回。官方口径:最大约 75,000 行代码/几十篇论文一口气吃下去,比之前翻 5 倍。目前标注为 Public Beta(API、Amazon Bedrock 已开,Vertex “即将”)。

社区侧的实测也越来越多:媒体、博客、Hacker News、Reddit 都在讨论。


现在谁能用?“Max 20x” 真的能开?

Section titled “现在谁能用?“Max 20x” 真的能开?”
  • 官方确认:Sonnet 4 的 1M 窗口 已上线 API,且是 Beta,并带有 beta header(context-1m-2025-08-07) 的要求;Amazon Bedrock 已接入;Vertex “即将支持”。
  • 订阅侧Claude Max 计划合并了 Claude App 与 Claude Code,标称 “最高 20x” 使用额度。这也是大家口中的 “Max 20x”。
  • 社区口碑:有用户反馈 Max 20x 订阅里已经能切到 1M,但也有人 报错;很可能是分批灰度或地区/账号白名单差异。别急,先试再说

小结:API 有官方实锤Claude Code/桌面端逐步放量。你可能已被“悄悄开通”,也可能还在队列里。


三步尝鲜:在 Claude Code 里切到 1M

Section titled “三步尝鲜:在 Claude Code 里切到 1M”

Step 0:更新到最新 Claude Code

Terminal window
npm i -g @anthropic-ai/claude-code

或者

Terminal window
claude update

参考官方 Quickstart/CLI 文档。

Step 1:在会话里执行

> /model sonnet[1m]
⎿ Set model to sonnet[1m] (claude-sonnet-4-20250514[1m])

这是 内置 slash 命令的合法选项之一(社区 issue 的错误日志直接列出了 sonnet[1m])。

Step 2:随便发一句话 触发一次真正请求,看看是否成功。如果报错,不怪你——可能还没轮到你的账号

Step 3:检查当前模型/状态

/status

用于查看账户与系统状态,确认是否切到 1M。

进阶:用 CLI 直接带模型

Terminal window
claude --model claude-sonnet-4-20250514

1M 模式通常需要服务端开关/白名单,或对应 beta 能力,并非写明就一定能用。


1)整库理解与重构导航README、架构图、核心模块、关键测试打包丢进来,让它出系统级地图重构计划。媒体实测称长窗下的跨文件推理更稳。

2)大部头文档合评 一次塞入多份 技术方案/合规条款/合同,让它做对比与风险点清单,再让它给出变更建议可追踪任务

3)代码库-变更影响评审 拉取最近 N 个 PR + 依赖图,让它评估回归风险、生成测试清单、补充安全/性能 check

实操小贴士:长窗 ≠ 万能。官方与开发者都提醒:上下文越大,越需要清晰的定位与指令,否则容易“吃得多、消化慢”。


  • API 价格:超过 200K 输入 token会按照长上下文费率计价;1M在 Beta 阶段对 部分组织/限额开放。
  • Claude Code 订阅:虽然不按 token 明码计费,但更大的上下文更费额度/更慢。建议配合 /compactCLAUDE.md 做摘要与指令约束。

  • “设置成功但一发消息就报错”:多见于账号未开地区灰度。确认自己是 Max(20x),多试几次或换时段。
  • “命令不识别 / 选项无效”:升级到最新版,检查 /model 的可选列表;社区日志显示 sonnet[1m] 已在可选枚举中出现。
  • API 侧调不通:记得加 beta header:context-1m-2025-08-07

想做个玩笑梗,在群里发一张截图装一秒“1T 上下文已支持”。别当真,大家图一乐就好。


一是更新并试试 /model sonnet[1m],你可能已经被开通了。 二是练好“长上下文使用习惯”:明确目标、分段聚焦、定期 /compact。等官方全面放量,你会跑得更快。

  • 你觉得 1M 对真实项目交付的提升有多大?
  • 你更倾向于 “一口吃下” 还是 “拆分—对齐—合并” 的工作流?
  • 你已经灰测到 1M 了吗?欢迎留言晒一张 /status 截图(注意隐私)。

claude-code-proxy 用 Claude Code 跑 OpenAI/Gemini 模型

把 Claude Code 的请求“翻译”给 OpenAI 或 Gemini(也可直连 Anthropic),零改代码、一条命令接入、支持流式与模型前缀自动匹配。


不少同学想用 Claude Code 的工作流,但又想走 OpenAI/Gemini 的模型与价格体系。 切换 SDK、改调用格式、做权限与日志,一堆坑。

这就是 claude-code-proxy 的用武之地: 它让 Anthropic 协议的客户端(如 Claude Code),无缝转到 OpenAI/Gemini,或继续走 Anthropic,还把响应转回 Anthropic 格式,前端毫无感知。


  • 三种后端一键切换PREFERRED_PROVIDER 设为 openai / google / anthropic不想映射?选 anthropic,走直连模式

  • 模型前缀自动处理:自动给 OpenAI/Gemini 模型加 openai/gemini/ 前缀,避免手抖写错。

  • Haiku/Sonnet 智能映射haiku → SMALL_MODELsonnet → BIG_MODEL;默认映射到 gpt-4.1(-mini)gemini-2.5-pro / 2.0-flash

  • 全程 LiteLLM 撑腰:统一网关、路由/回退、用量追踪、预算限额、日志与插件扩展。

  • 完全兼容流式/非流式:对 Claude 客户端透明。


目标:本机起一个 8082 端口的代理,Claude Code 直接指向它。

1)克隆与安装依赖(用 uv 超快)

Terminal window
git clone https://github.com/1rgs/claude-code-proxy.git
cd claude-code-proxy
# 安装 uv(一次性)
curl -LsSf https://astral.sh/uv/install.sh | sh

uv 负责基于 pyproject.toml 解析/安装依赖,省心省时。

2)配置环境变量

Terminal window
cp .env.example .env
# 编辑 .env,填好你的 API KEY、首选后端与模型

关键项:

  • OPENAI_API_KEYGEMINI_API_KEY、(可选)ANTHROPIC_API_KEY
  • PREFERRED_PROVIDER=openai|google|anthropic
  • BIG_MODEL / SMALL_MODEL(用于 Sonnet/Haiku 映射) 详见 README 表述。

Gemini API Key 可在 Google AI Studio 一键创建与配置为环境变量。

3)启动服务

Terminal window
uv run uvicorn server:app --host 0.0.0.0 --port 8082 --reload

--reload 适合开发期。


安装 Claude Code:

Terminal window
npm install -g @anthropic-ai/claude-code

官方建议别用 sudo,权限问题请看文档。

指向代理并启动:

Terminal window
ANTHROPIC_BASE_URL=http://localhost:8082 claude

此后,Claude Code 的 Haiku/Sonnet 会按你的 .env 映射到 OpenAI/Gemini 或直连 Anthropic。


三种常用映射模板(可直接复制)

Section titled “三种常用映射模板(可直接复制)”

A. 默认走 OpenAI(省事稳妥)

PREFERRED_PROVIDER=openai
OPENAI_API_KEY=sk-...
# 可选:BIG_MODEL/SMALL_MODEL
BIG_MODEL=gpt-4.1
SMALL_MODEL=gpt-4.1-mini

Haiku/Sonnet → openai/SMALL_MODEL / openai/BIG_MODEL

B. 更偏爱 Gemini(成本友好/响应快)

PREFERRED_PROVIDER=google
GEMINI_API_KEY=...
OPENAI_API_KEY=sk-... # 作为回退
BIG_MODEL=gemini-2.5-pro-preview-03-25
SMALL_MODEL=gemini-2.0-flash

Haiku/Sonnet → 对应 gemini/ 前缀;不在白名单时回退 OpenAI。

C. 只做「Anthropic 透明代理」

PREFERRED_PROVIDER=anthropic
ANTHROPIC_API_KEY=sk-ant-...
# 忽略 BIG/SMALL,直传 Anthropic

好处:保留日志/中间件/统一入口,同时不做映射


  • 统一接口接 100+ 模型(OpenAI、Anthropic、Google 等)。
  • 支持 路由/回退、负载均衡、预算限额与用量追踪
  • 可定制 日志、告警、插件,方便合规与审计。

1)团队网关:把 Claude Code、脚本与后端服务的 LLM 流量,都收敛到这台代理,集中控费与审计。

2)成本/性能 AB 切:一键在 OpenAI 与 Gemini 间切换,看谁成本更优、谁推理更准。

3)直连 Anthropic + 增强治理:保留真实模型与响应,同时复用代理的日志与限额模块。

4)本地开发:开发机开 8082,Claude Code 直连,零改项目

5)多模型兜底:OpenAI 挂了自动回退,保障研发不中断(通过 LiteLLM 路由/回退)。


  • 模型名前缀:交给代理自动加前缀,避免 gpt-4o 写成 gemini/gpt-4o 这种乌龙。
  • 权限与密钥:Gemini Key 要到 Google AI Studio 申请;环境变量要在运行时可见
  • NPM 权限:安装 Claude Code 报权限错,按官方指引处理,不要强行 sudo
  • 端口冲突:8082 被占用就改 --port
  • 生产部署:建议加反向代理与鉴权(如 Nginx + Basic Auth),并启用 LiteLLM 的预算/限频/日志

  • uv run uvicorn ... 成功监听 8082。

  • npm i -g @anthropic-ai/claude-code 安装无误,claude doctor 自检通过。

  • 运行:

    Terminal window
    ANTHROPIC_BASE_URL=http://localhost:8082 claude

    发起一次简单对话,观察代理日志是否命中目标模型。


claude-code-proxy 让你把 Claude Code 的生产力,和 OpenAI/Gemini 的性价比与生态,拼在一起。 今天就把代理跑起来,一键切模型,立刻提效。

CodeGPT 让 Claude Code 集成 VSCode, JetBrains 和 Android Studio

装上 CodeGPT 扩展,你就能在 VSCode 和 JetBrains 里直接跑 Claude Code,看得见计划随时暂停现场改任务,边干边纠偏,效率翻倍。支持 JetBrains 全家桶同理。


还在命令行里和 Claude Code“盲聊”? 现在有更顺手的玩法:把 Claude Code 带进编辑器 UI

有了 UI,你能看到规划树、随时插队、撤回修改。 遇到复杂需求,不用再“等结果揭晓”,中途就能校正方向。 这才像真的结对编程。


为什么要在 VSCode 里用 Claude Code UI?

Section titled “为什么要在 VSCode 里用 Claude Code UI?”
  • 少走弯路:计划可视化,偏了立刻拉回来。
  • 操作直觉:按钮就能暂停 / 继续 / 编辑 / 新增任务。这类 UI 集成已经在 VSCode 生态里成熟可用。
  • 不离开编辑器:和代码、Git、测试工具同屏联动。CodeGPT 本身就面向多模型、全仓理解

注:Anthropic 官方也提供 VSCode 扩展与 IDE 集成,但核心仍是从终端启动的工作流;UI 集成是对体验的加分。


  1. 打开扩展市场,安装 CodeGPT: Chat & AI Agents

  1. 登陆 CodeGPT 账户(VSCode 弹出浏览器确认)。

  2. 在 CodeGPT 里选择 Anthropic 作为提供商,并按提示连上你的密钥 / 账户授权。

  1. 进入侧边栏的 CodeGPT 面板,选择 Claude 系列模型,开启会话和计划模式

VSCode Marketplace(官方入口):CodeGPT

JetBrains(IntelliJ / PyCharm / Android Studio 等)

Section titled “JetBrains(IntelliJ / PyCharm / Android Studio 等)”
  • 在插件市场搜索并安装 CodeGPT: Chat & AI Agents,登录同上,选择 Anthropic。

在 VSCode 侧栏的会话面板里,你会看到:

  • Plan / Thinking 模式入口(先规划再执行,必要时提升思考深度)。
  • 暂停/继续按钮,随时打断长流程。
  • 任务列表可修改、可插入新子任务。
  • Checkpoints / 还原,误改也不怕。 这些交互在 VSCode 的 Claude Code UI 类扩展中已经被验证,如 “Claude Code Chat” 等展示了计划与思考模式、历史与还原等能力;CodeGPT 宣布也已支持在 VSCode 内运行和控制 Claude Code 规划流程

  • 在面板输入:“定位并修复最近异常日志的根因,先给出计划,再修改最小影响范围代码,附自测步骤。”
  • 看到计划后,删掉不必要的子任务,再运行。
  • 提示词追加:“修改前先生成 diff 预览。”(便于 Review)

计划驱动的工作流已被不少开发者验证好用。

  • 让它先产出重构计划回归点清单,再批量落地。
  • 中途插入新任务:“为修改过的模块补充最小集单测”
  • 出现跑偏,立即暂停,在任务树里改写指令再继续。
  • 指令:“生成一个可运行的 X 技术栈最小 Demo,列出步骤与目录变更,再逐步创建文件并解释。”
  • 新增任务:补上 Dockerfile / CI。
  • 最后用 Checkpoints 还原比较不同方案。

  • Plan First:先让它只产出计划,不动代码;你确认后再执行。
  • 小步提交:让它每次修改都输出 diffcommit 信息,方便回滚。
  • 文件上下文:用 @文件名 或“选中文件 → 右键发送到会话”提升命中率。
  • 模型选择:项目大、推理复杂时选 Sonnet / Opus;轻量问答选小模型。CodeGPT 支持多家模型统一调用。

能力/形态CodeGPT + VSCode UIAnthropic 官方 VSCode 扩展纯终端 CLI
计划可视化/暂停/改任务(UI 面板)有基础集成,主打从 IDE/终端启动无 UI,靠文本
多模型与知识图谱(支持多提供商、知识图谱)仅 Anthropic 模型仅 Anthropic 模型
上手难度低(市场一键装)低(扩展 + CLI)中(命令行)
JetBrains 支持(官方插件)有(IDE 集成指南)有(终端即用)
适合人群边看计划边改的团队喜欢官方原味 + 终端流键盘流、自动化爱好者

资料来源:CodeGPT VSCode/JetBrains 插件页;Anthropic IDE 集成与 VSCode 扩展页;社区 UI 扩展展示“Plan/Thinking/Checkpoint”等控件。


  • 授权方式:按扩展提示连接 Anthropic 账户(API Key 或浏览器授权流程)。
  • 隐私承诺:CodeGPT 宣称 SOC2 Type II、不拿你的代码训练模型,可开启隐私模式。
  • 计费:Claude Code 走 Anthropic 账户计费;启用前确认额度与团队配额。

  • VSCode:CodeGPT: Chat & AI Agents(市场页)。
  • JetBrains:CodeGPT: Chat & AI Agents(插件页)。
  • Anthropic 文档:Claude Code IDE 集成 / 概览

另外,CodeGPT 团队已公开宣布“在 VSCode 内可运行 Claude Code 并控制规划过程”;这是本文所述 UI 体验的直接来源。


把 Claude Code 搬进编辑器后,你不再是“等它跑完再看”。 而是像带实习生一样,随时停、随时改、随时加。 这就是人机协作最好看的样子。

你会把它用在团队的哪条流水线上?你觉得呢?

AI产品开发为何不同于传统产品开发?持续校准和持续开发 - 不确定性与“代理vs控制”的挑战

当下,生成式AI的热潮使各大公司争相推出AI驱动的产品功能,生怕错过风口。例如,字节跳动推出了对话式AI应用「豆包」,腾讯也上线了自研聊天助手「元宝」。许多产品团队在高层压力下迅速集成AI功能:想法很有前景,演示效果惊艳,早期用户反馈也不错。然而,一旦产品上线面向真实用户,问题却接踵而至。系统频繁出现意料之外的错误,用户提出各种千奇百怪的请求场景,AI的响应也时好时坏。团队苦于排查却发现问题错综复杂,难以归结到单一原因修复,整个产品思路仿佛都被动摇了。更糟糕的是,这些隐患往往会悄然侵蚀用户对产品的信任。

为何会出现从精彩Demo到不堪一击的现实落差?根源在于AI产品打破了传统软件产品的诸多假设。如果仍用构建传统软件的方式来构建AI产品,就会踩到很多陷阱。总结来看,有两大关键差异需要引起重视:

  • AI产品具有天然的不确定性 – 无论是用户的输入方式,还是AI系统的输出结果,都充满不可预测性。
  • AI产品需要在代理权和控制权之间取得平衡 – 每当你赋予AI系统更多自主行动的“代理权”,你就相应地放弃了一部分人工可控性。如果忽视这一点,贸然提高AI自主性,后果可能是失控的决策和难以追踪的错误。

很多团队没有意识到这两点差异,导致AI产品在扩展和优化过程中出现级联问题:莫名其妙的故障、决策失误,甚至演变成信任危机。针对这些独特挑战,业内资深从业者提出了一套新的产品开发框架,帮助团队在AI时代更加有的放矢地构建稳定、可靠的产品功能。下面,我们将分别解析上述两大差异,并介绍这套**“持续校准/持续开发 (CC/CD)”**框架如何应对这些问题,最后以具体案例说明如何在日常工作中循序渐进地交付AI产品。


传统软件的行为往往是确定性的。用户的交互方式有限且明确:点击按钮、填写表单、调用固定接口……开发者据此编写硬编码的逻辑映射输入和输出。如果出现错误,大多是代码bug,比较容易定位和修复。

AI产品则天生充满不确定性。AI系统引入了双重的不可预测性:

  1. 输入不确定性

    • 用户的输入不再局限于预定义的操作,而可能是开放式的自然语言、语音指令、图像等。
    • 输入表达灵活多样、难以穷举验证,也容易引发歧义。
    • 在客服机器人场景中,同一个问题用户可能有成百上千种表述方式;在内容生成中,提示词差异导致截然不同的结果;在代码助手中,模糊的需求可能生成完全不同的实现。
  2. 输出不确定性

    • 传统软件同样输入必然得到同样结果;AI模型则基于概率生成回答,本质上是“猜测”。
    • 相同请求在不同上下文、不同时间甚至不同模型版本中,结果可能各不相同。
    • 输出的不确定性使得开发测试更困难——传统单元测试方法难以适用,只能通过概率和趋势评估AI质量。

因此,AI产品开发必须接受:AI系统的行为不是绝对可控的,必须持续观察和校准它与预期的偏差。


另一个显著区别是“代理权”(Agency)的引入。代理权指AI系统代表用户自主采取行动、做出决策的能力。

  • 高代理权场景示例

    • 客服机器人直接回复用户
    • AI写作助手自动发布文章
    • 代码助手直接提交代码到仓库
  • 风险与问题

    • 自主性高 → 控制力弱
    • 一旦出错,后果比传统Bug更严重
    • 难以追踪问题环节,调试和修复困难

因此,AI的自主性需要逐步“赢得”:

  • 初期仅做辅助建议(低代理,高控制),人工审核为主
  • 表现可靠后逐渐增加自主权限
  • 保持可回滚、可介入的人工接管机制

这种循序渐进的方式既能避免AI出错带来巨大损失,也能逐步建立用户信任。


CC/CD框架借鉴了CI/CD概念,但针对AI产品的不确定性和逐步放权特性,提出了 持续开发 (Continuous Development, CD)持续校准 (Continuous Calibration, CC) 的交替循环。

  • 明确能力范围,分阶段规划版本边界
  • 搭建应用原型,埋点日志 & 人工兜底机制
  • 设计评估指标(Evals),为后续校准提供基线
  • 小范围灰度部署,开启真实反馈收集
  • 运行评估,检验真实表现
  • 分析日志,定位错误模式
  • 有针对性地改进模型、提示词、检索模块或数据
  • 反复迭代,直到AI表现稳定可靠

随着循环推进,AI能力逐步升级,代理权逐步放大,同时保持安全和信任。


实践案例:逐步构建AI客服机器人

Section titled “实践案例:逐步构建AI客服机器人”

版本1:AI辅助分配工单(低代理,高控制)

Section titled “版本1:AI辅助分配工单(低代理,高控制)”
  • 职责:仅识别类别 → 分配部门
  • 评估指标:路由准确率
  • 风险低,人工可随时纠正
  • 经过校准,准确率可达95%以上

版本2:AI建议回复(中等代理,中等控制)

Section titled “版本2:AI建议回复(中等代理,中等控制)”
  • 职责:生成答复草稿 → 人工审核发送
  • 评估指标:采用率 & 一致度
  • 改进检索模块 → 提升专业性
  • 建议采用率从50%升至80%

版本3:AI自主解决问题(高代理,低控制)

Section titled “版本3:AI自主解决问题(高代理,低控制)”
  • 职责:直接回复用户 → 限定高频、低风险场景
  • 评估指标:自动解决率 & 用户满意度
  • 初期覆盖有限问题,逐步扩大范围
  • 保留人工接管机制 & 事后抽检

通过三阶段迭代,AI客服机器人实现了从“辅助”到“自助”的平稳转变,既提升效率,又保障可靠性。


AI产品开发就像带领团队里来了一个能力超强但初来乍到的新同事:

  • 不能一上来就完全放权,而要逐步让TA熟悉业务
  • 既要给予空间,又要保持监督,确保方向不偏
  • 持续校准与逐步放权,是实现稳定可靠的唯一途径

CC/CD框架的核心:

  • 面对不确定性 → 持续观察与校准
  • 面对自主性 → 逐步放权、按需演进

这样,AI才能真正成为可靠的“团队成员”,在保障信任的同时,带来降本增效和体验升级。

Anthropic 推荐的标准化的 Prompt 提示词结构模板

一套标准化的提示词结构模板。同款结构常见于 AWS 的 Prompt Engineering 讲义与演讲,也和 Anthropic 官方的 Career coach(Joe) 示例一致。


很多人写提示词还靠感觉。 但有了结构,就有了稳定性。 今天用一张图,把“任务上下文—语气—资料—规则—例子—历史—当前请求—思考提示—输出格式—预填回复”这 10 个模块讲清楚,再给你3+个能直接抄用的工作/生活场景模板。


这张截图标题是 Prompt structure。左侧列出 10 个模块;右侧是一段示例,设定了“你是 AdAstra Careers 的 AI 职业教练 Joe,要用友好客服语气,参考文档,遵守若干规则,给出示范、读取历史、处理当前问题,并按 <response> 标签输出”。这一示例与 Anthropic Prompt Library 的 Career coach(Joe) 文案高度一致;10 模块清单与 AWS 的讲义/博客相符。

下面把图片里识别出的关键信息,做成对照表,便于直接套用👇

序号模块名称(图片识别)右侧示例要点(图片识别)作用/好处
1Task context“You will be acting as an AI career coach named Joe created by AdAstra Careers.”设定角色与任务,减少跑题。
2Tone context“You should maintain a friendly customer service tone.”约束语气与风格,输出更统一。
3Background data, documents, images“Here is the career guidance document… <guide>{{DOCUMENT}}</guide>明确参考资料,让模型有据可依。
4Detailed task description & rules规则示例:始终保持角色不确定就请对方重述遇到无关问题要礼貌回绝设定边界与错误处理,降低幻觉与跑偏。
5Examples“Here is an example of how to respond…” <example>…</example>提供few-shot 示例,对齐风格与结构。
6Conversation history<history>{{HISTORY}}</history>注入上下文历史,延续对话记忆。
7Immediate task description or request“Here is the user’s question: <question>{{QUESTION}}</question>明确当前要做什么
8Thinking step by step / take a deep breath“Think about your answer first before you respond.”鼓励条理化思考,提升可控性与质量。
9Output formatting“Put your response in <response>…</response> tags.”规范输出格式,方便抓取与自动化。
10Prefilled response (if any)“Assistant (prefill): <response>预填答复/骨架,加速多轮或批量任务。

  • 模块化:每块负责一个目标,易复用、易维护。
  • 可观察:从“资料—规则—示例—格式”,让输出更可预测。
  • 跨平台通吃:这套结构在 AWS Bedrock 教材与 Anthropic 示例都能对上,迁移成本低。

简单说:换模型不换结构,效果依旧稳。


直接可用的 4 个场景模版(可复制)

Section titled “直接可用的 4 个场景模版(可复制)”

用法提示:把 {{花括号}} 替换成你的内容;保留标签有利于后续自动化。

1) Task context: 你是{{公司}}的在线客服,目标是高效解决问题并沉淀知识库。
2) Tone context: 语气友好、克制、同理心;不夸张承诺。
3) Background: 产品手册<guide>{{链接/文档}}</guide>,常见问题<faq>{{FAQ 文档}}</faq>。
4) Rules:
- 先复述问题,再给解决步骤;涉及退款/法律,一律转人工。
- 不确定就提问澄清;禁止臆测。
5) Examples: <example>{{1-2 条标准答复示例}}</example>
6) Conversation history: <history>{{历史对话}}</history>
7) Immediate request: <question>{{用户这次的问题}}</question>
8) Thinking: 深呼吸后,按“复述→判定→步骤→兜底”的顺序思考。
9) Output formatting: 用 Markdown;包含【结论】【步骤】【可选排查】【何时转人工】四段。
10) Prefilled response: <response>【结论】:…</response>
1) Task context: 你是严谨的代码评审助手,熟悉{{技术栈}}。
2) Tone context: 专业、简洁,先风险后建议。
3) Background: <diff>{{这次 PR 的 git diff }}</diff> <tests>{{相关测试/CI 日志}}</tests>
4) Rules:
- 聚焦“正确性/安全性/性能/可维护性”;禁止主观风格之争。
- 每条问题必须给“复现片段 + 影响 + 修改建议”。
5) Examples: <example>{{1 条理想评审意见}}</example>
6) Conversation history: <history>{{讨论记录}}</history>
7) Immediate request: <question>评审本次变更</question>
8) Thinking: 列清单→逐文件→逐问题打分。
9) Output formatting: 输出表格【文件|行区间|问题|严重级别|建议】+ 总结清单。
10) Prefilled response: <response>…</response>
1) Task context: 你是私人健身与饮食教练。
2) Tone context: 鼓励式,避免内疚感。
3) Background: <data>{{上周步数/心率/体重/饮食记录}}</data> 目标:{{减脂/增肌}}。
4) Rules:
- 只用家用器械;每餐给可替换选项。
- 若数据缺失,先提 3 个关键澄清问题。
5) Examples: <example>{{一日菜单+训练示例}}</example>
6) Conversation history: <history>{{既往沟通}}</history>
7) Immediate request: <question>给出下一周的分日计划</question>
8) Thinking: 从能量缺口→微量营养→作息→训练排序。
9) Output formatting: 表格【日期|训练|时长|RPE|餐单|备注】+ 购清单。
10) Prefilled response: <response>…</response>
1) Task context: 你是家庭旅行策划师。
2) Tone context: 轻松、务实。
3) Background: 成员{{人数+年龄}},预算{{¥}}, 时间{{起止}}, 出发地{{城市}},偏好{{自然/博物馆/美食}}。
4) Rules:
- 每天不超过 2 次跨区移动;午睡留白 1 小时。
- 对儿童与老人分别给替代方案。
5) Examples: <example>{{理想的一天行程样例}}</example>
6) Conversation history: <history>{{之前讨论}}</history>
7) Immediate request: <question>生成行程并列出预估费用</question>
8) Thinking: 交通→住宿→动线→餐饮→门票→缓冲。
9) Output formatting: 行程表 + 地图链接占位 + 预算明细表。
10) Prefilled response: <response>…</response>

  • 先写 1、2、9、10(身份/语气/输出格式/预填),马上可用。
  • 3、4、5 持续打磨,效果越用越稳。
  • 所有变量都用 <tag>{{变量}}</tag>,以后可脚本化批量生成。

这套 10 模块模板,通用、可复用、可自动化。 放到工作里,是 SOP;放到生活中,是私人教练。 从今天开始,试着把你常用的 3 个任务都改成这套结构吧。

你觉得这套模板还想用在哪?评论区聊聊。

摩根士丹利 2027年30只优质股票 投资组合解析

摩根士丹利最近公布了他们的 “2027年30只优质股票” 投资组合,这些公司被认为将在未来几年中扩大其竞争优势。本文将深入分析每一只股票的核心竞争优势,帮助投资者更好地理解这些优质企业的价值所在。


Live Nation Entertainment (LYV) - 3.41% 权重

Section titled “Live Nation Entertainment (LYV) - 3.41% 权重”

竞争优势:垂直整合的现场娱乐帝国

Live Nation凭借其垂直整合的商业模式构建了强大的护城河。公司在51个国家运营,拥有或控制394个场馆,每年服务超过7.88亿粉丝,这种全球规模是竞争对手难以复制的。更重要的是,通过Ticketmaster的票务垄断地位(2024年售出6.37亿张门票),Live Nation控制了从演出策划到票务销售的整个价值链。这种整合使公司能够获得卓越的数据收集能力、动态定价权,并与顶级艺人建立独家长期合作关系,形成了”艺人吸引粉丝,粉丝吸引赞助商”的良性循环。


竞争优势:AI驱动的广告生态系统

Meta的核心优势在于其庞大的用户基础和网络效应。截至2023年12月,Facebook日活跃用户达21.1亿,所有平台日活跃用户达31.9亿。公司97.8%的收入来自广告,其先进的AI算法能够精确定位用户并提供卓越的广告投资回报率。Meta正在利用AI工具克服苹果iOS隐私政策带来的信号丢失挑战,通过安全多方计算等技术维持广告精准度。此外,公司在元宇宙领域的大举投资为未来增长奠定了基础,尽管短期内成本较高。


竞争优势:音频内容聚合的网络效应

Spotify通过网络效应、规模经济和内容聚合建立了竞争壁垒。作为全球最大的音乐流媒体平台,拥有超过2.5亿付费用户和4亿免费用户,其”Freemium”模式能够有效获取用户并将其转化为付费订阅者。公司不断扩展到播客和有声读物领域,减少了对唱片公司的依赖,同时增强了议价能力。Spotify的个性化推荐算法和社交功能(如Wrapped年度总结)创造了用户粘性,高转换成本使用户难以切换到竞争对手平台。


消费者自由支配板块(权重9.92%)

Section titled “消费者自由支配板块(权重9.92%)”

竞争优势:云计算与电商双引擎

亚马逊的竞争优势建立在规模、技术和客户中心主义三大支柱上。公司拥有无与伦比的物流网络,2024年向Prime会员配送超过90亿件商品,其中60%以上的美国都市区域实现当日配送。AWS云服务以1080亿美元的收入保持全球领先地位,几乎是微软Azure的两倍。亚马逊的第三方市场模式聚集了200万卖家,占总销售单位的61%,这种选择的广度结合持续的低价策略(Profitero连续八年评为美国零售商最低价)形成了强大的客户忠诚度。公司在AI采用、履约自动化和新业务拓展方面的持续创新维持了其竞争领先地位。


Chipotle Mexican Grill (CMG) - 3.38% 权重

Section titled “Chipotle Mexican Grill (CMG) - 3.38% 权重”

竞争优势:品质与效率的完美结合

Chipotle的主要竞争优势在于品牌实力、运营模式和客户忠诚度。公司的”食品诚信”定位强调新鲜、高品质食材和可定制菜单选择,创造了强大的品牌认知度和忠诚度。2024年,可比餐厅销售额增长7.4%,餐厅层面运营利润率达26.7%,远超行业平均水平。Chipotle的流水线式服务模式实现了高吞吐量和定制化,支持超过320万美元的平均单店销售额,位居行业前列。数字化基础设施强劲,2024年数字销售占总收入的35%,忠诚度计划拥有超过4000万会员。


竞争优势:奢华独特性与传承价值

法拉利的竞争优势源于其品牌独特性、限量生产策略和F1赛车传承。公司每年限产约10,000辆汽车,尽管需求更高,这种人为稀缺性创造了极强的产品吸引力和溢价能力。法拉利在F1赛车中的辉煌历史和持续成功不仅提升了品牌声誉,还为其技术专长和卓越性能提供了有力证明。这种赛车运动的关联强化了Ferrari作为速度、性能和卓越象征的品牌身份。公司的高性能跑车制造能力,结合尖端技术和精密工程,为汽车爱好者创造了令人兴奋的驾驶体验。


竞争优势:全球品牌护城河

可口可乐拥有业界最强的品牌护城河。尽管面临百事可乐、RC可乐等众多竞争对手,可口可乐仍保持近30%的运营利润率和超过35%的自由现金流转换率。公司在全球软饮料市场占有45%以上的份额,137年来不断增长。可口可乐的竞争优势包括:强大的品牌实力使消费者自动选择而不考虑竞争产品、深度客户忠诚度、显著的定价权、规模经济带来的成本优势,以及卓越的分销网络覆盖全球各个角落。


竞争优势:低价策略与全渠道零售

沃尔玛的竞争优势建立在成本领先战略之上。公司利用先进的计算和网络技术实现最大运营效率,从而最小化成本。2024年股价飙升82%,市值增加约3400亿美元。沃尔玛成功吸引了更多高收入购物者,最近一个季度约75%的销售来自年收入10万美元以上的家庭。公司通过门店现代化改造(重新布局、扩大产品种类、改善照明)同时保持对7000多种商品的降价,在服务高收入和预算意识购物者之间找到了平衡点。其全渠道零售策略结合强大的供应链网络,使沃尔玛能够为93%的美国家庭提供当日配送服务。


竞争优势:天然气生产领导地位

EQT作为美国最大的天然气生产商,拥有多项关键竞争优势。公司在阿巴拉契亚盆地拥有超过100万净英亩土地,储备了超过30年的风险缓解钻井地点。尽管阿巴拉契亚地区库存大幅耗尽,EQT仍保持了2024年约26万亿立方英尺当量的已证实储量。与Equitrans Midstream的合并加强了公司的垂直整合能力,最小化对外部方的依赖并增强中游收入机会。EQT的运营效率出色,单井成本在2025年预计下降每英尺70美元,完井效率在2024年下半年较历史平均水平提高35%。公司还是首家实现范围1和范围2温室气体净零排放的传统大型能源公司。


(包含 Blackstone、Citigroup、CFG、Mastercard、Progressive、Visa 等公司,分析内容同上略)


(包含 Boston Scientific、Eli Lilly、IQVIA、Thermo Fisher 等公司,分析内容同上略)


(包含 Howmet Aerospace、Trane Technologies、TransUnion 等公司,分析内容同上略)


(包含 Analog Devices、Apple、Atlassian、Datadog、Microsoft、Shopify 等公司,分析内容同上略)


竞争优势:清洁化学品与技术服务

艺康公司的竞争优势在于其清洁化学品、技术服务、客户关系和可持续发展解决方案。公司为工业、机构和能源市场提供水处理、清洁和卫生解决方案,在食品安全和环境保护日益重要的背景下具有不可替代的价值。


竞争优势:商业地产服务全球网络

世邦魏理仕的竞争优势源于其商业地产服务、全球网络覆盖、丰富的市场数据和深厚的客户关系。作为全球最大的商业地产服务公司,CBRE在物业管理、投资销售、租赁和估值等领域拥有领先地位。


摩根士丹利的 “2027年30只优质股票” 投资组合体现了对可持续竞争优势的重视。这些公司普遍具备以下特征:

  • 强大的品牌价值和客户忠诚度
  • 网络效应和规模经济优势
  • 技术创新和数字化转型能力
  • 全球化业务布局和市场领导地位
  • 定价权和高毛利率水平

对于中国投资者而言,这份投资组合提供了学习全球优质企业竞争战略的宝贵机会。在当前经济转型和技术升级的大背景下,识别和投资具有持久竞争优势的企业将是获得长期投资回报的关键。


免责声明:本文基于公开研究资料整理,仅供参考,不构成投资建议。投资有风险,入市需谨慎。

用苹果 iOS 订阅 Claude Code 的独享会员账号,享受尼日利亚区 6 折优惠价

最近,不少小伙伴问我:Claude Code 太好用了,但要么没海外信用卡订阅,要么觉得订阅太贵,有没有省力、省钱的办法?
有的!今天就来分享一份超实用保姆级攻略,手把手教你用苹果 iOS 账号跨区(尼日利亚区),再用礼品卡充值,低价拿下 Claude Code 会员。

整个流程不复杂,准备好手机和一点耐心,跟着做就行啦~


简单一句话:便宜!

不同地区的 App Store,订阅价格差别特别大。尼日利亚区的 Claude 定价相对美区和其它地区都更友好,换个区相当于直接打 6 折。再配合礼品卡充值,划算到飞起。

人民币价格(按照1 USD ≈ 7.25 RMB 折算):

方案官网价 (USD)美区 iOS (USD)尼日利亚 iOS (NGN)尼日利亚 ≈ (USD)尼日利亚 ≈ (RMB)相比美区 iOS 优惠相比官网价 优惠
Pro$20$20₦14,900$9.68¥70.2$10.32 (-51.6%)$10.32 (-51.6%)
Max (5x)$100$124.99₦100,000$64.94¥471.8$60.05 (-48.0%)$35.06 (-35.1%)
Max (20x)$200$249.99₦200,000$129.87¥942.6$120.12 (-48.0%)$70.13 (-35.1%)

👉 换算逻辑:

  • Pro:$9.68 × 7.25 ≈ ¥70.2
  • Max (5x):$64.94 × 7.25 ≈ ¥471.8
  • Max (20x):$129.87 × 7.25 ≈ ¥942.6

上手之前,先保证你有:

  • 一台 iPhone / iPad;
  • 一个备用 Apple ID(最好新注册一个,别动主号,以免影响现有订阅和应用库);
  • 尼日利亚区礼品卡(海鲜市场能买到,找靠谱卖家就行);
  • 一个海外邮箱 & 海外手机号(Claude 注册要用)。

准备完这些,就可以开始了。


操作很简单:

  1. 打开【设置】 → 点击你头像进去;
  2. 找【媒体与购买项目】 → 【查看账户】;
  3. 点【国家/地区】 → 选择【尼日利亚 Nigeria】;
  4. 地址随便填(比如 Lagos 的常见地址),支付方式选【无】;
  5. 成功后,你的账号就是尼日利亚区啦。

改好地区后,接下来就是往账号里“充钱”:

  1. 拿到你买的尼日利亚 App Store 礼品卡兑换码;
  2. 打开 App Store → 点击头像 → 【兑换礼品卡或代码】;
  3. 输入兑换码 → 确认 → 看到余额到账。

这就相当于给自己准备了一张尼日利亚区的“购物卡”。


  1. 去 Claude 官网或 App 里注册;
  2. 用海外邮箱;
  3. 收不到验证码?需要海外手机号,去找常见虚拟号平台接个短信就行;
  4. 注册完成,就能登录啦。

  1. 在尼日利亚区 App Store 搜索“Claude”,下载;
  2. 登录你刚刚注册好的账号;
  3. 打开会员中心,选择订阅套餐;
  4. 付款时用刚刚礼品卡充值的余额,直接支付!

搞定 🎉!现在你就用上了优惠价的 Claude 会员。


  • 一定用小号操作:不要轻易动主 Apple ID,不然可能影响你正在用的订阅和应用;
  • 礼品卡要认准靠谱卖家:避免买到黑卡或兑换失败的;
  • 跨区永远有风险:苹果可能调整规则和汇率,要随时关注;
  • Claude 不同地区可能下载受限,如果遇到下不了的情况,可以准备个梯子。

其实整个流程看似啰嗦,但真做起来很快:10 分钟搞定+稳定省钱
订阅 Claude 后,你就能随时让这个强大的 AI 帮你生成代码、写文案、总结内容、灵感辅助,效率杠杠的。

所以别犹豫啦,撸起袖子试试,说不定一个月就能省下一顿大餐的钱~

iOS 苹果订阅 Claude Code 会员服务

目的:用 iPhone/iPad 在 App Store 成功订阅 Claude(Pro/Max),支持后续续费和升级。 对象:需要在Claude 支持的地区使用、希望走苹果内购的同学。


  • 省心:用苹果账单统一管理,随时改套餐、随时取消。
  • 安全:礼品卡/Apple Account 余额支付,不暴露真实卡号。
  • 同步:iOS 原生 App,和网页版数据打通。

1)注册 Claude 账号(海外邮箱 + 支持地区手机号)

Section titled “1)注册 Claude 账号(海外邮箱 + 支持地区手机号)”
  • 打开 claude.ai,用邮箱注册并登录。随后会要求手机验证
  • 必须使用Claude 支持地区的手机号码;官方明确要求“支持地区手机号才可登录”。(不要用临时号,风控高)

小贴士:邮箱用 Gmail/Outlook 都可;若手机号之前绑定过别的账号,需要联系客服解绑旧号再换绑。


2)把 Apple ID「改区」到 Claude 支持地区(如:美国/加拿大等)

Section titled “2)把 Apple ID「改区」到 Claude 支持地区(如:美国/加拿大等)”
  • 进入 设置 → 你的名字 → 媒体与购买项目 → 查看账户 → 国家/地区,按流程更换。

  • 改区前必须满足:

    • 余额清零
    • 取消影响改区的订阅并等到周期结束;
    • 准备新地区可用的支付方式(可用 Apple 账户余额/礼品卡)。
  • 你在家庭共享里,可能无法改区,需要先退出家庭组。

查询新地区支持的付款方式:见苹果官方列表(多数地区可用Apple Account 余额/礼品卡)。


3)购买该地区的 App Store / Apple Gift Card(常见是美区)

Section titled “3)购买该地区的 App Store / Apple Gift Card(常见是美区)”
  • 礼品卡是严格分区的:只能在购卡所属国家/地区使用,跨区无法兑换。
  • 不要买错卡种Apple Store(线下零售)礼品卡无法在 App Store 里兑;要买Apple Gift Card / App Store & iTunes类型。
  • 务必确认面值/地区/卡种与 Apple ID 完全一致,优先选择正规授权渠道

  • 打开 App Store → 头像 → 兑换礼品卡或代码 → 输入/扫码卡背16 位代码,完成后会显示Apple Account 余额

余额规则补充:部分订阅/场景对余额有例外,以当地规则为准(大多数 App 内购可直接走余额)。


5)下载 Claude App 并在 App 内订阅

Section titled “5)下载 Claude App 并在 App 内订阅”
  • 在 App Store 搜索 “Claude by Anthropic”,下载安装。

  • 打开 App,用你的 Claude 账号登录,在订阅入口选择计划并走苹果内购

  • 美区价格(以商店显示为准)

    • Claude Pro 月付 $20
    • Claude Pro 年付 $214.99
    • Claude Max 5x 月付 $124.99
    • Claude Max 20x 月付 $249.99 (不同国家税费/定价会有差异)

步骤关键要点常见坑位
注册 Claude支持地区 + 手机号验证临时号/非支持地区手机号被拒;多次绑定需解绑旧号
Apple ID 改区余额清零、订阅取消、准备新地区付款方式家庭共享阻塞;余额不足一单价时无法清零
买礼品卡严格同区,同卡种买到 Apple Store 卡无法在 App Store 用;买错地区无法兑换
兑换App Store → 头像 → 兑换礼品卡或代码16 位码被输错/磨损;代码提示“需在其他商店兑换”
订阅App 内走 IAP,优先用余额少数地区余额对部分订阅有限制,以当地规则为准

(官方依据:支持地区/手机号要求;改区前置条件;礼品卡分区与不可跨区;兑换步骤;付款方式与价格。)


  • 遵守条款:Claude 仅面向官方支持的国家/地区用户使用;注册/登录需符合所在地与手机号要求。
  • 礼品卡跨区无效:买错地区/卡种无法兑换,苹果不支持跨区转移余额。
  • 改区前置:有余额、有订阅、在家庭共享中,都可能无法改区。按官方流程处理。

Q:余额没花完,改区卡住怎么办? A:用余额购买可用的数字内容到精确清零;若余额不足一单价,联系 Apple 支持处理。

Q:用余额能不能付 Claude? A:多数地区 App 内购支持Apple Account 余额;但个别地区/订阅有例外,以当地条款为准。

Q:App 在我选的商店能下吗? A:Claude iOS App 可在支持地区的 App Store 下载,名称 Claude by Anthropic


结语|把 Claude 变成你的“随身工作台”

Section titled “结语|把 Claude 变成你的“随身工作台””

到这一步,你已经打通:支持地区账户 → Apple 改区 → 礼品卡充值 → App 内订阅。 接下来,把 Claude 当成你手机里的“副驾驶”,写作、翻译、笔记、拍照识图都能一把梭。

你觉得呢?

  • 你会把 Apple ID 设在哪个区?为什么?
  • 用过 Pro/Max 的朋友,真实感受如何?

Claude Code /context 命令可视化上下文窗口、Token 占用、MCP 调用和记忆文件

一句话/context 会把当前会话的上下文窗口、Token 占用、MCP 调用痕迹、以及被加载的 CLAUDE.md 记忆文件都可视化,方便你做“减肥、控糖、查泄漏”。(该功能在 Claude Code v1.0.86 里出现,来自社区实测反馈。)

你是不是也遇到过:聊着聊着,突然被自动压缩打断,关键信息被“折叠”得七零八落?

/context 就像一块“体脂秤”,把上下文里都塞了什么、哪里超标、为什么触发压缩,统统摊开给你看。它还会标出 MCP 工具的使用和 CLAUDE.md 记忆文件的来源,方便你做针对性优化。


  • 一眼看穿上下文:会话里到底装了哪些片段、各占多少 Token,接近阈值没有?(社区总结:常见 200k 窗口、约 80% 附近会触发自动压缩)
  • 定位“胖源”:标出 MCP 工具用过哪些资源、读了哪些大文件,便于减重。
  • 核查记忆:展示被加载的 CLAUDE.md / CLAUDE.local.md,确认有没有“记忆塞太多”。
  • 成本意识:结合 /context 与状态栏/第三方工具(如 ccusage)做交叉对比,减少“暗耗”。(官方文档给过一个量级:人均日均成本约 $6,90% 用户低于 $12)

注:目前 /context 的统计和其它渠道(自动压缩提示、ccusage、定制状态栏)可能略有出入,社区也在反馈修正。把它当“诊断视图”更稳。


在一次大需求推进的中后期,敲 /context 看看哪些段落最占 Token。 配合 /compact focus: {本周目标与差异清单}定向瘦身,避免把历史枝叶继续带进来。(Slash 命令与 /compact 属于官方支持的工作流)

/context → 出现了家目录或项目里过大的 CLAUDE.md? 把规范、惯例留在项目层 CLAUDE.md,把临时心得放 CLAUDE.local.md,并拆分引用,避免一锅端进上下文。

/context 里看到 MCP 调了哪些搜索/数据库/外部 API,倒推出最费 Token 的调用链,然后做白名单限流。MCP 是 Claude 官方的一等集成,适合规模化连接外部工具。

合并分支、发版前跑一次 /context,确认没有无关对话历史多余记忆干扰,降低自动压缩触发几率,提升回复稳定性。关于“接近 80% 会自动压缩”的经验可做参考。

ccusage 挂到状态栏,实时看“当前会话/今日/5 小时块”的消耗;遇到飙升,立刻 /context 对表定位。


能力/工具/context自动压缩提示ccusage(状态栏)自定义状态栏脚本
展示粒度细,含片段/MCP/记忆粗,接近阈值才提示细,侧重费用/Token实时数取决于脚本
记忆可见性✔ 显示 CLAUDE.md 来源需自做
MCP 可见性可做
准确性早期版本略有偏差准确准确(基于日志/计费)依实现
适合人群诊断/优化普通使用成本敏感高阶定制

说明:准确性条目参考了官方/社区资料与问题跟踪帖,/context 仍在迭代。


  • 查看上下文输入:/context → 标记大块内容与来源(MCP/记忆/历史)。

  • 定向瘦身输入:/compact focus: 「本迭代目标与阻碍」(先聚焦再压缩)。

  • 记忆治理: 把规约写进项目根的 CLAUDE.md;临时偏好放 CLAUDE.local.md;大文档用引用拆分。

  • MCP 白名单: 限定可自动放行的工具,避免无谓调用;必要时再交互授权。

  • 成本联动: 安装 ccusage 并挂到状态栏,随时对比 /context


  • 数字不完全对齐很正常:/context 处于新版本早期,和状态栏或自动压缩提示可能存在偏差;以计费/日志为最终依据。
  • 别把记忆当垃圾桶:记忆文件会被自动读取,体量大就会占窗——控制粒度才是王道。
  • MCP 不是免费午餐:每一次外部检索/读取都可能带来额外 Token;用白名单与限流。

/context = 开发者的“上下文体检表”。 想把 Claude Code 用得稳、快、省,先把“看得见”这件事做好。 从今天起,养成三个习惯:常看 /context、按需 /compact、记忆瘦身。你会发现,回复更稳、成本更可控、协作更顺。

你觉得 /context 还缺什么视图?有没有你做的“状态栏 + /context”联动方案?欢迎留言聊聊。

Claude Code 无缝切换 DeepSeek v3.1

DeepSeek v3.1 新增 Anthropic API 格式兼容。把 Claude Code 的 BASE_URL 和鉴权变量指到 DeepSeek,就能继续用 Claude Code 的工作流与工具,底层模型却换成 DeepSeek,体验类似、成本更友好。


很多同学问:能不能保留 Claude Code 的一整套体验,比如 REPL、/config、权限沙盒、hooks、状态栏……但把底层模型换成便宜高性价比的? 现在答案是:能。因为 DeepSeek v3.1 宣布支持 Anthropic API 兼容,对接路径官方给到位了。


  • 无缝衔接 Claude Code:继续用熟悉的 CLI、项目权限、MCP/工具链;只改环境变量与模型名。
  • 价格更友好:DeepSeek Chat(v3.1)官方价显示输入 $0.27/百万 token(cache miss)输出 $1.10/百万 token。对比 Claude Sonnet 3.7/4 的 $3 / $15,输入大约 1/11,输出约 1/13.6真金白银
  • 128K 上下文(v3.1),同时还支持**严格函数调用(Beta)**等特性。做代码代理、工具编排更稳。

小提醒:Anthropic 近期也在推 Sonnet 4 的 1M 上下文(长上下文按更高档计费),这点是 DeepSeek 目前不具备的上限优势,按业务取舍。


Terminal window
npm install -g @anthropic-ai/claude-code

(装完可 claude doctor 自检版本与依赖)

Terminal window
export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
export ANTHROPIC_AUTH_TOKEN=${YOUR_API_KEY}
export ANTHROPIC_MODEL=deepseek-chat
export ANTHROPIC_SMALL_FAST_MODEL=deepseek-chat

说明:

  • ANTHROPIC_BASE_URL 指到 DeepSeek 的 Anthropic 兼容端点
  • ANTHROPIC_AUTH_TOKEN 会作为 Authorization: Bearer 使用;
  • ANTHROPIC_MODELANTHROPIC_SMALL_FAST_MODEL 让 Claude Code 选中 DeepSeek 的模型。
Terminal window
cd my-project
claude

(你看到的还是 Claude Code 的交互式工作流,但请求会发往 DeepSeek)

想持久化配置?把上述变量写进 ~/.claude/settings.jsonenv 字段即可:项目/全局都支持,团队可统一发放。


A. 用 settings.json 固化模型与限额

Section titled “A. 用 settings.json 固化模型与限额”
{
"model": "deepseek-chat",
"env": {
"ANTHROPIC_BASE_URL": "https://api.deepseek.com/anthropic",
"ANTHROPIC_AUTH_TOKEN": "sk-***",
"ANTHROPIC_MODEL": "deepseek-chat",
"ANTHROPIC_SMALL_FAST_MODEL": "deepseek-chat",
"CLAUDE_CODE_MAX_OUTPUT_TOKENS": "4096"
}
}

这样开新项目不用反复 export,团队一把梭

你也可以把 ANTHROPIC_BASE_URL 指向企业自建 LLM Gateway / LiteLLM,做流量路由、熔断、成本看板、配额管理。 官方文档明确支持 ANTHROPIC_BASE_URLapiKeyHelper 等方案。

  • 统一小任务模型:把 ANTHROPIC_SMALL_FAST_MODEL 也设成 DeepSeek(默认用于扫描/检索/轻推理)。
  • 控制输出上限CLAUDE_CODE_MAX_OUTPUT_TOKENS 合理收口,避免长文输出吃满。
  • 函数调用:v3.1 支持严格函数调用(Beta),让 agent 走结构化调用链,少走弯路省 token

DeepSeek 的 Anthropic 兼容层覆盖了消息、工具、流式、温度、top_p 等常用字段; 但也明确标注了不支持的内容类型(如 imagedocumentsearch_result、部分 MCP/容器类字段)。 需要这些能力的场景要么切回原 Claude,要么改造提示与流程。

另外:敏感文件隔离别忘了。用 Claude Code 的 permissions.deny.envsecrets/** 等隐藏,避免模型读取。


项目DeepSeek Chat(v3.1 定价)Claude Sonnet 3.7/4(API 定价)
输入(每百万 token)$0.27(cache miss)$3
输出(每百万 token)$1.10$15

结论:输入约 1/11,输出约 1/13.6。如果你主要跑代码改写、检索、单测生成,这个差距会立竿见影


  • 个人/中小团队:预算敏感,但要求工程效率工具链稳定
  • Agent / 自动化项目:调用频繁、响应可控,优先省成本
  • 教育/实验环境:希望在同一套 Claude Code 体验下,快速验证不同模型策略。

Q:我在 REPL 里还会看到“Claude”的字样,这是 DeepSeek 在跑吗? A:是的。壳是 Claude Code引擎是 DeepSeek。请求会按你设置的 ANTHROPIC_BASE_URL 与鉴权走 DeepSeek。

Q:我需要换 SDK 吗? A:不用。如果你用的是 Claude Code 交互式工作流,只改环境变量即可。若在代码里直接调 SDK,可以用 Anthropic 官方 SDK,同时把 BASE_URL 指向 DeepSeek 的 Anthropic 端点即可。

Q:DeepSeek 兼容层有没有不一样的地方? A:有。DeepSeek 列出了忽略/不支持的一些头与消息类型,工具大多支持,但图像/文档类消息暂不支持,注意规避。


一句老话:“能省下来的钱,都是团队的护城河。” 把 Claude Code 的生产力留住,把大头模型成本换成更友好的 DeepSeek。 今天就切一把,明天财务报表会笑。

你觉得呢?要不要我顺手给你做一份 settings.json 模板 + 成本测算表


Terminal window
export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
export ANTHROPIC_AUTH_TOKEN=sk-deepseek-***
export ANTHROPIC_MODEL=deepseek-chat
export ANTHROPIC_SMALL_FAST_MODEL=deepseek-chat
claude

(来自 DeepSeek 官方指引与 Claude Code 环境变量文档)

Terminal window
pip install anthropic
export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
export ANTHROPIC_API_KEY=sk-deepseek-***
import anthropic
client = anthropic.Anthropic()
msg = client.messages.create(
model="deepseek-chat",
max_tokens=800,
messages=[{"role":"user","content":"Hi, from DeepSeek via Anthropic SDK!"}]
)
print(msg.content)

AI 让你更快入门,却无法替你登顶

在人工智能(AI)时代,我们常听到一种说法:AI 更擅长“垫高下限”,而不太能“抬升上限”
简单来说,AI 正在大幅降低各领域的入门门槛,让更多人更容易上手新技能或完成基本工作;
但要突破人类能力的天花板,达到创意和专业的巅峰水平,AI 却显得心有余而力不足。

这种“下限提高、上限未变”的现象在不同领域表现各异。
本文将深入分析 AI 如何降低学习和工作的门槛,以及为何突破上限依然困难,并结合编程、写作、创意、设计等领域的实例进行对比分析。


AI 降低门槛:学习曲线被重新塑造

Section titled “AI 降低门槛:学习曲线被重新塑造”

学习资源匹配难题正在消解。 在 AI 出现之前,学习者常常面临“资源匹配”的难题:市面上的教学资料是为“大众”或某个固定水平的受众编写的,未必适合你的具体情况。比如:

  • 你是某新领域的新人,却在相关领域有一定知识积累;但几乎没有教程能把两者联系起来。
  • 学习某技能其实需要先修知识,但初学者往往不清楚这一点,结果直接硬啃,效率低下。
  • 达到中级水平后,常常会遇到瓶颈,却很难找到针对性的进阶资源。

如今,有了 AI,这些问题迎刃而解。AI 可以因材施教,按需定制内容:无论你提出多“小白”或多冷门的问题,AI 都能根据你的理解水平给予解答,甚至帮你完成一些枯燥的基础练习。
这使得学习曲线发生显著变化——起步阶段不再陡峭,而是被大大抬升了。

绿色曲线表示在 AI 辅助下技能掌握的进度,相比黑色曲线(无 AI),初学者能更快跨过基础门槛。随着技能深入,两条曲线趋近,说明 AI 对精通的帮助有限。

AI 的典型作用:

  • 像私人导师一样,随时解答问题;
  • 提供示例代码、案例,帮助快速突破新手期;
  • 在重复性工作上代劳,让学习者专注于理解。

例如,很多程序员发现:过去学习新框架时,要花大量时间查文档;现在直接问 AI,就能即时获得解释和代码示例。正如有人调侃:“AI 几乎知道每一个菜鸟错误的解决办法,就像打了类固醇的 Stack Overflow。”

研究也表明:新手程序员借助 GitHub Copilot,完成任务的速度提高了 55%,而且越缺经验的人,从 AI 获得的提升越大

不仅是学习,工作中的门槛也显著降低。过去需要专业技能的任务,如代码编写、文案撰写、制图建模,如今新人也能靠 AI 工具快速产出“能用”的成果。
这意味着更多人可以进入过去的专业领域,知识工作参与面正在扩大。调研称之为“raising the floor”——提高地板,提供更高的起点默认值。


突破上限依然困难:认知边界与数据瓶颈

Section titled “突破上限依然困难:认知边界与数据瓶颈”

高手对 AI 的评价往往更冷静。
他们直言:AI 的知识浅薄,研究得越深,越发现它帮不上忙。

原因主要有两方面:

  1. 训练数据局限

    • 常见、普及的主题 → AI 答案可靠。
    • 前沿或高深主题 → 数据稀缺,AI 容易出错或模棱两可。
    • 有争议的主题 → 数据矛盾,AI 输出缺乏深度。
    • 本质上,AI 更倾向于给出“平均化的回答”,而非突破性洞见。
  2. 认知与推理瓶颈

    • 生成式 AI 本质是模式匹配器,而不是推理机器。
    • 缺乏因果逻辑和跨领域洞察力。
    • 在复杂推理题和创新探索中,AI 经常力不从心。

“捷径”思维导致停滞。
很多人只想直接问 AI 要答案,而不愿意自己思考。短期内似乎进步飞快,但很快进入平台期,最终被坚持自主学习的人超越。

红线:依赖 AI 捷径的学习者,早早停滞;黑线:自主学习者,后劲更足。

归根结底,精通仍然困难。AI 虽然降低了“入门难度”,却没能降低“登顶难度”。真正的理解、创新、经验积累,依然需要靠自己完成。


编程:新手如虎添翼,复杂项目仍靠老鸟

Section titled “编程:新手如虎添翼,复杂项目仍靠老鸟”
  • 优势: 帮助新手快速掌握语言和框架,提升生产力。
  • 局限: 在大型项目中,AI 缺乏上下文理解,难以输出高质量方案。
  • 隐忧: 新人可能跳过基础训练,削弱独立解决问题的能力。

写作:生成初稿轻而易举,优质创作不容懈怠

Section titled “写作:生成初稿轻而易举,优质创作不容懈怠”
  • 优势: 文案、摘要、新闻稿的生成效率极高。
  • 局限: 风格趋同,缺乏原创突破。
  • 结论: AI 是二稿助手,但独特表达仍靠作者。

创意艺术:模仿触手可及,新意难以企及

Section titled “创意艺术:模仿触手可及,新意难以企及”
  • 优势: 人人都能生成像样的插画、音乐。
  • 局限: 真正的新颖创意依然稀缺。
  • 现象: “吉卜力风”头像火过一阵,但无法替代经典原创作品。

设计:工具智能进步,创意仍需巧思

Section titled “设计:工具智能进步,创意仍需巧思”
  • 优势: Photoshop、Figma 等 AI 功能降低了操作门槛。
  • 局限: 品牌调性、用户体验的把控,仍需人来决策。
  • 趋势: 设计师角色转向“AI 筛选师”和“创意总监”。

结语:机遇与挑战并存,因人而异的 AI 时代

Section titled “结语:机遇与挑战并存,因人而异的 AI 时代”

AI 正在垫高下限,让更多人进入知识和创意的舞台。
突破上限仍靠人类,AI 提供的是更高的起点,而非更高的终点。

  • 对学习者: AI 是加速器,但不能替代努力。
  • 对创作者: AI 是助手,但原创性依旧稀缺。
  • 对行业: AI 打破准入门槛,但巅峰依旧属于少数。

在一个人人都有 AI 工具的时代,真正拉开差距的,是使用工具的智慧


ChatGPT, Claude 和 Gemini 成功的秘密:AI研究者发现了一张“彩票”

从小模型到大模型:机器学习铁律被打破

Section titled “从小模型到大模型:机器学习铁律被打破”

五年前,如果你对机器学习专家说“我们应该训练一个拥有万亿参数的神经网络”,对方大概率会觉得你疯了 。

长期以来,业界奉行一条“铁律”:模型太小,会欠拟合;模型太大,就只能死记硬背训练集,无法举一反三。

这其实源于统计学的经典原理——偏差-方差权衡。简单来说,模型太简单会漏掉关键模式,模型太复杂又会记住噪音,导致泛化失败 。


打个比方:假设我们教一个小学生做加法。 有两种策略:一种是理解进位的算则,另一种是把所有可能的加法题和答案硬背下来。

后者虽然作业成绩满分,但一换题型就惨了——因为他没真正学会规律,只是记住了答案。 这就像过大的神经网络过拟合:在训练集上成绩完美,一遇到新样本就不灵了。


正因如此,过去的AI研究非常克制,大家想尽办法“瘦身”模型,用正则化、防止过拟合。 大模型在当时被视为自取灭亡,甚至有“大模型都会过拟合”的箴言挂在嘴边 。

然而,现实给了我们一个大惊喜。 如今那些曾被称作“不可能”的超大模型却大放异彩——从ChatGPT这样的对话AI,到蛋白质结构预测,无不受益于模型规模的爆炸式增长 。


一切转折出现在2019年。

当年,一群“离经叛道”的研究者做了个大胆实验:他们不顾警告,一直增大模型规模,甚至在模型对训练集已经100%准确(按传统说法此刻应当严重过拟合)之后,继续加大容量 。

结果出人意料:模型的测试性能不降反升!

训练误差先下降然后上升(过拟合),但当参数进一步增多时,测试误差竟再次大幅下降 。

这一现象被称为 “双重下降”(double descent)——彻底颠覆了300年来统计学的常识 。


随着更多实验验证“双重下降”普遍存在于CNN、ResNet、Transformer等模型 ,**“大即是好”**的信念开始占据主导。

学界和工业界迅速转向拼模型大小。可是,每个研究者心中依然有个疑问:

按理说模型越大越该过拟合,为什么现实中大模型反而变聪明了?


图:大型神经网络中包含许多随机初始化的子网络。训练过程中,那些性能优异的“中奖彩票”子网会被选中,其余逐渐被抑制 。

2018年,MIT的研究者提出了“彩票假说”。

他们发现:在一个大型神经网络中,藏着一些微型的子网络,哪怕剪掉96%的参数,这些子网络依然可以匹配原模型的性能!


更神奇的是,这些子网络只有在保留原始随机初始化的前提下才能如此出色。 如果把它们重新初始化,性能就会崩掉 。

于是,“彩票假说”诞生了:

大型神经网络之所以成功,不是因为学到了复杂解,而是因为模型够大,里面随机生成了足够多的子网络,总有一个子网络碰巧非常契合任务需求 。

训练的过程就像是在抽奖:中奖的子网络被不断强化,其他的逐渐消失 。


这个发现妙极了,它解释了“双重下降”的原理,也让经典理论和新现象和解了:

大模型并没有“背答案”,而是在参数空间中找到了更简洁的解释

奥卡姆剃刀依然有效,只是实现方式更精巧。


这一原理可能也在生物智能中体现。

人脑有860亿个神经元、百万亿级的突触连接,看上去严重“过参数化”。 可我们人类却能举一反三。

按照彩票假说,或许大脑正是通过“冗余的神经元连接”,为任何任务提供了海量备选方案,从中挑选出有效的简单模式 。

智能的本质不是死记硬背,而是从大量可能性中发现规律


这也解释了为什么GPT这样的大语言模型能如此成功。

买票多,中奖概率大。 GPT这种模型里,海量随机初始化的子网络保证了训练过程中一定能找到擅长语言模式的“天才子网”。

随着规模增大,这些“中奖子网”涌现,才让GPT逐步获得了小样本学习、推理等新能力 。


AI研究者无意间刮出了一张改变格局的“大奖彩票”。

这个故事告诉我们:勇于挑战既有理论,往往能收获意想不到的优雅真理。

过去坚信的偏差-方差铁律并没有被推翻,而是在巨大的参数空间中以更微妙的方式发挥作用 。

大型神经网络并非违规成功,它们只是在更高层面遵循了规则


这也提醒我们:实践出真知。

敢于把模型规模推到理论舒适区之外的研究者,让AI取得了里程碑式的进展。 在一个以数学定理为基础的领域,有时最重大的突破恰恰来自拥抱不确定性 。


ChatGPT的成功背后,并没有什么神秘魔法。

给模型足够大的“舞台”,它自然会淘汰冗余、找到最优雅的表演方式。

这个发现听起来朴素,却颠覆了我们对“学习”的传统认知。

或许,我们也能把这种精神运用到生活中:当大多数人循规蹈矩时,敢于跳出舒适区,可能就能撞见下一个“优雅惊喜”。


💡 你被这个假说震惊到了吗? 快把这篇文章转发给你的AI朋友,一起聊聊!

OpenAI $500B 估值与 Palantir 股价泡沫分析报告

基于对Citron Research关于Palantir Technologies的研究报告进行深入分析,本报告通过多渠道事实核查、逻辑分析和批判性思维,揭示了AI股票估值泡沫的深层次问题以及Palantir未来走势的关键风险因素。

Citron Research的报告提出了一个简单而尖锐的估值比较:OpenAI以$500亿估值对应2026年预计$296亿收入,P/S倍数为17倍;而Palantir预计2026年收入$56亿,按同样17倍倍数计算,合理股价应为$40,远低于当时约$170的市价。

  1. OpenAI员工计划出售$60亿股票,公司估值$5000亿
  2. Sam Altman承认AI市场存在泡沫
  3. Alex Karp在过去两年出售近$20亿Palantir股票
  4. Palantir依赖政府合同的”不平滑”收入模式
  5. Forward Deployed Engineers模式成本高昂,边际利润为负

通过多个权威媒体证实,OpenAI确实在进行$60亿的员工股票出售,估值$5000亿。Sam Altman在2025年8月的媒体见面会上明确表示”投资者整体上对AI过度兴奋”,并将当前情况比作dot-com泡沫。

  • 2026年收入预测$56亿:Bloomberg共识预测确实在此范围
  • 当前估值倍数:以$170股价计算,P/S确实达到60-70倍
  • 政府收入占比:确实约占55%,美国政府收入2025年Q2增长53%

实际情况比报告描述更严重。Alex Karp在2024年出售了$18.8亿股票,其中$14亿集中在总统选举前后。Peter Thiel等其他内部人员2024年总计出售超过$40亿股票。

Forward Deployed Engineers成本模式 ✓ 准确

Section titled “Forward Deployed Engineers成本模式 ✓ 准确”

一位前Palantir工程师确认,FDE模式需要雇佣顶级工程师,成本极高,“许多情况下边际利润为负无穷大,因为我们免费赠送项目”。

问题:直接用OpenAI的17倍P/S倍数衡量Palantir忽视了商业模式根本差异。

分析:OpenAI是消费者导向的SaaS订阅模式,具备网络效应和自我强化特征;Palantir主要依赖政府长期合同和高度定制化企业服务。两者的风险特征、可预测性和扩展性完全不同。

问题:报告强调Palantir收入增长”稳定”,但忽略了其在美国商业市场的爆发式增长。

事实:Palantir 2025年Q2美国商业收入同比增长93%,远超”稳定”描述。总收入增长48%,Rule of 40得分94%,显示强劲的增长和盈利能力平衡。

问题:报告将Databricks描述为”最大威胁”,但实际上两者更多是合作而非直接竞争。

事实:2025年4月Databricks与Palantir宣布合作伙伴关系,结合双方优势为企业提供AI解决方案。多位从业者证实两者针对不同用例,可以在同一组织内共存。

批判性思维:立场、利益与动机分析

Section titled “批判性思维:立场、利益与动机分析”

Andrew Left因GameStop事件后宣布不再发布做空报告,但此次重新针对Palantir发声。值得注意的是,Left目前面临19项证券欺诈刑事指控,被指控利用公共平台操纵股价获利。

历史准确性:据WSJ统计,Citron在2001-2014年发布的111份报告中,90份在一年后股价下跌,平均跌幅42%,准确率约81%。

Alex Karp的抛售行为:虽然大量抛售股票看似缺乏信心,但需要考虑以下因素:

  1. 流动性需求:作为长期私人持股,IPO后需要分散化投资组合
  2. 税务规划:10b5-1计划是合法的税务优化策略
  3. 信号混杂:同期Karp也在行使期权增持股票,并非单纯减持

机构投资者行为:ARK Invest等知名机构持续增持PLTR,Brett Winton将其视为”AI革命的关键基础设施”,显示机构层面仍有信心。

Palantir过去、现在、未来走势分析

Section titled “Palantir过去、现在、未来走势分析”
  • 2020年:直接上市$23.55,市场初期兴奋
  • 2021-2022年:科技股熊市,跌至历史低点$6.00
  • 2023年:AI概念兴起,股价开始回升至$17.17
  • 2024年:AI热潮+特朗普胜选,暴涨340%至$75.63
  • 2025年:峰值达$190,目前回调至$157

优势

  1. 盈利能力强:连续8个季度GAAP盈利,46%调整营业利润率
  2. 政府合同稳定:$100亿美军合同提供长期收入保障
  3. 商业市场突破:美国商业收入增长93%,客户数增长43%

风险

  1. 估值极高:P/E超过490倍,远超同行
  2. 客户集中:前三大客户占收入17%
  3. 国际市场疲软:国际商业收入下跌3%

乐观情景

  • 分析师预测2025-2027年收入CAGR 25.3%,净利润CAGR 31.6%
  • AI平台(AIP)推动企业数字化转型需求
  • DOGE政府效率部门可能增加需求

风险情景

  • 政府削减开支影响核心业务
  • AI民主化降低定制化服务价值
  • 高成本结构难以规模化

当前PLTR市值$373B,而收入仅$28.7B(TTM),P/S比率约13倍,确实高于多数SaaS公司。但考虑到:

  1. 增长质量:48%收入增长+94% Rule of 40,显示健康的增长盈利平衡
  2. 防御性:政府客户粘性强,转换成本高
  3. AI先发优势:在企业AI部署领域建立了技术护城河

基于DCF和可比公司分析:

  • 保守估值:$80-120(考虑增长放缓和估值回归)
  • 合理估值:$120-180(维持当前增长轨迹)
  • 乐观估值:$180-250(商业市场大规模突破)

当前$157的价格处于合理区间下沿,但仍存在向下调整空间。

  1. Citron报告有一定合理性:Palantir确实存在估值过高问题,$40目标价虽然极端,但反映了基本面与股价的脱节
  2. 商业模式转型关键期:从政府依赖向商业市场转型的成功程度将决定长期价值
  3. AI泡沫风险真实存在:Sam Altman的泡沫警告不容忽视,整个AI板块面临估值压力

短期(6-12个月):谨慎持有,关注Q3/Q4财报中商业收入增长可持续性 中期(1-3年):重点观察企业客户续约率、国际市场拓展和成本控制效果 长期(3-5年):如能成功转型为平台型企业并实现规模经济,仍有显著增长空间

风险控制:建议投资者不超过投资组合5%配置该股,并设置止损线$120以控制下行风险。

Palantir代表了AI时代企业软件的新范式,但当前估值可能已透支了未来3-5年的增长预期。理性投资者应在认可长期价值的同时,对短期波动做好充分准备。

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

ccstatusline 把 Claude Code 变成“生产力仪表盘”

ccstatusline 把 Claude Code 底部状态栏变成「可视化驾驶舱」——模型信息、Git 分支、Token、上下文占用、会话时长、5 小时 Block 进度条,都能一次看全,还能插入你自己的命令输出。


每天写代码,最怕两件事。 成本失控,以及上下文爆表。 Claude Code 现在支持自定义状态栏,我们有了一个天然的“仪表盘”位置。

ccstatusline 就是为这块“仪表盘”而生的。 开箱即用,能直接显示模型、Token、上下文百分比,还自带 Powerline 主题。最爽的是自带 Block 计时器,把 5 小时窗口的进度一眼看穿。


1) 一眼看穿 5 小时 Block(含进度条)

Section titled “1) 一眼看穿 5 小时 Block(含进度条)”
  • 自动识别对话块边界,显示已用时长。
  • 两种进度条样式(32/16 字符)。
  • 支持只显示“纯值”(raw)模式。

节奏感直接拉满,什么时候该休息、什么时候重置,心里有数。

  • 箭头分隔、可定制 Cap、内置多套主题。
  • 16/256/TrueColor 都能玩。

颜值在线,信息密度高,还能和你的终端主题完美融合

  • npx/bunx 一键启动配置界面。
  • 最多 3 行独立状态行,所见即所得。
  • 设置保存到 ~/.config/ccstatusline/settings.json
  • 你写什么,它就显示什么。
  • 可以把 ccusage 的实时成本/用量直接塞进来。

例如 npx -y ccusage@latest statusline,官方文档也给了最佳参数。

模型名、Git 分支与变更、输入/输出/缓存 Token、上下文长度与占比、会话时钟、版本号、输出样式、智能宽度截断…… 写代码时的“关键信息噪点”,全被收拾干净


Terminal window
# npm 启动配置 TUI
npx ccstatusline@latest
# 或者 bun(更快)
bunx ccstatusline@latest

进入 TUI 后,按提示添加/移动条目、调色、设置分隔符与填充,并 一键写入 Claude Code 设置

VSCode 终端如果颜色怪异,把 terminal.integrated.minimumContrastRatio 调成 1

  • Model / Tokens Total / Context %(可用)/ Session Clock / Block Timer(进度条)/ Git Branch + Changes
  • 宽度设置推荐 Full width minus 40,避免自动压缩信息把行挤爆。

进阶玩法:把“成本”和“节奏”可视化

Section titled “进阶玩法:把“成本”和“节奏”可视化”

A. 接入 ccusage:把钱花在哪,一清二楚

Section titled “A. 接入 ccusage:把钱花在哪,一清二楚”

1)在 ccstatusline 的 Custom Command 增加: npx -y ccusage@latest statusline 2)把 timeout 设为 5000(首次下载需要)。 3)勾选 preserve colors

完成后,状态栏可显示本会话成本、当天累计、当前 Block 成本与剩余时间、实时烧钱速率等。

小贴士:若你用旧版 ccusage 或网络慢,可能有 OOM/反复调用风险,务必设置超时并更新到新版。

B. 自定义命令:把“上下文外的信息”塞进来

Section titled “B. 自定义命令:把“上下文外的信息”塞进来”
  • 当前目录名:pwd | xargs basename
  • Node 版本:node -v
  • 当前 Commit:git rev-parse --short HEAD
  • 当前时间:date +%H:%M
  • 天气:curl -s wttr.in?format="%t" 注意命令要快,超时会被杀掉。
  • 第 1 行:模型、Token、上下文。
  • 第 2 行:Git、目录、时间。
  • 第 3 行:Block 进度、成本(ccusage)。

信息分层+智能截断,再也不打架。


  • 成本风控:接通 ccusage,盯住实时烧钱Block 成本。适合个人和团队账单复盘。
  • 长跑任务:有了 Block Timer,你能自然安排专注/休息节律,不再“超时猝不及防”。
  • 团队风格统一:内置主题 + Powerline,统一观感与指标,利于 Pair/Review。
  • 演示/直播:状态栏就是“旁白”,观众能跟上你的上下文与成本节奏。
  • 跨平台写作:Bun/Node 都能跑,Windows 也在补充文档与适配反馈中关注。

  • 命令要快:Custom Command 超时会被干掉;慢命令会拖慢每秒刷新。
  • VSCode 颜色不准:把最小对比度关到 1,或用外置终端。
  • 宽度包行:用 “Full width minus 40” 或按上下文阈值动态切换。
  • ccusage 偶发性能问题:设 timeout、升级版本,必要时独立运行做健康检查。

写代码该看的信息,别再藏在命令里、文件里、记忆里。 把它们到状态栏。 看得清,花得省,写得稳。

去开一趟“可视化驾驶”,把 Claude Code 用出“数字感”。 npx ccstatusline@latest,今天就上。

Kronos 自回归大模型预测股票 K 线走势(开源可跑,A股也能微调)

把股票 K 线 OHLCV 变成“词”,用自回归大模型学市场语法;45+交易所、超120亿条K线预训练,支持开箱预测 + A股微调回测


做量化,数据吵、噪声大、指标碎。 Kronos 的思路很“反直觉”——先把连续K线离散成“词”,再用解码器大模型学市场“语法”,像写句子一样续未来K线。官方给了在线演示、模型仓库、微调脚本,上手难度不高。

想象一下:你不是在拟合曲线,而是在“翻译”市场的下一句话。你觉得这个角度靠谱吗?


1)从“数”到“词”,让模型听得懂

Section titled “1)从“数”到“词”,让模型听得懂”
  • 专用分词器把 OHLCV 等多维K线量化成层级离散token
  • 再用自回归Transformer做统一预训练,覆盖预测、波动率、合成数据等任务。

意义:连续信号 → 离散语料,更像语言任务,利于大模型的“先验”。(这点是 Kronos 的核心创新。)

  • 语料:45个全球交易所、120亿+条K线
  • 结果:在基准里,价格序列预测 RankIC +93%波动率MAE -9%合成K线保真 +22%(相对强基线)。

重点:这些是学术基准上的指标,不等于实盘收益;策略、风控、滑点依然要你来补齐。

  • Model Zoo:Mini(4.1M)、Small(24.7M)、Base(102.3M),Large 预告
  • 上下文:Mini 2048,Small/Base 512;
  • 许可:MIT;Hugging Face 一键拉

落地感受:Small 在单卡上就能跑短期预测 Demo;Base 适合做指标层研究层的对比基线。


  • 市场即语言:把 K 线学成“文法”,统一多任务
  • 端到端易用KronosPredictor 封装了预处理/归一化/反归一化,几行代码出预测。
  • 在线演示BTC/USDT 未来24小时概率预测看不看走势,更看不确定性区间
  • A股微调脚本:官方给了Qlib流程 + 回测示例,便于快速复现

环境:Python 3.10+;建议GPU;依赖按官方 requirements.txt 安装。

Step 1. 安装依赖

Terminal window
git clone https://github.com/shiyu-coder/Kronos.git
pip install -r requirements.txt

(A股微调需要 pyqlibpip install pyqlib。)

Step 2. 加载模型与分词器 以 Small 为例,上下文上限 512(注意 lookback 别超过):

from model import Kronos, KronosTokenizer, KronosPredictor
tok = KronosTokenizer.from_pretrained("NeoQuasar/Kronos-Tokenizer-base")
mdl = Kronos.from_pretrained("NeoQuasar/Kronos-small")
pred = KronosPredictor(mdl, tok, device="cuda:0", max_context=512)

上下文与参数规模见 Model Zoo。)

Step 3. 传入历史K线,取未来预测 传入包含 open, high, low, closeDataFramevolume/amount 可选。支持温度、top_p、多路径采样概率预测

贴士加密1h场景用最近360根做上下文很常见;日频A股可把 lookback 设 240~512 之间,注意与 max_context 对齐。


场景A|加密盘中“概率看多/看空”看板

Section titled “场景A|加密盘中“概率看多/看空”看板”
  • 用 Small 做1h/4h级别概率预测,Monte Carlo多路径取分布区间;
  • 交易面板上展示上涨概率与波动放大概率辅助仓位分配,而非单点买卖信号。

落地要点

  • 别追求点预测,用区间+概率
  • 接风控:波动放大会触发减仓/对冲

场景B|A股日频 Alpha 研究的“基座模型”

Section titled “场景B|A股日频 Alpha 研究的“基座模型””
  • 用官方Qlib流程做数据准备与切分;
  • 先微调 Tokenizer 再微调 Predictor
  • 回测给出Top-K简易策略曲线,用来筛因子/比基线

落地要点

  • 这是演示级回测,交易成本、滑点、风格中性要自己补;
  • 最好把 Kronos 预测输出当特征层,再接投资组合优化
  • 直接训练波动率目标或用模型输出构造波动放大概率指标;
  • 风控引擎对接,动态限仓/缩杠杆

  • 任务建模:Kronos 用离散化 + 自回归去学“结构”,不是把时间序列当纯回归;
  • 金融专属:目标覆盖价格、波动率、合成数据等金融下游;
  • 大规模跨市场45所、12B+条K线语料,强调跨品种、跨市场泛化。

一句忠告模型 ≠ 策略资金曲线的平滑靠的是组合、风控、执行


  • 过拟合:微调时请做好验证集早停
  • 数据对齐:外盘/内盘时间戳与复权处理要统一;
  • 指标迷信RankIC、MAE是研究指标,离实盘还差成本与冲击这道坎。

  • GitHub(代码/脚本/示例):微调&回测全流程。
  • Hugging Face(模型卡):拉取 Mini/Small/Base
  • 在线Demo(BTC/USDT):看概率+区间
  • Qlib 文档:A股日频数据与研究流程。

Kronos 把“行情→语言”的门打开了。 它不是一把“万能交易钥匙”,但作为研究层/特征层,已经很好用。 先用 Demo 感受分布,再做A股微调+回测,把它放进你的量化实验流水线里,见证它能带来多少“稳”

你会拿它先做哪个市场、哪个频率?评论区聊聊你的计划

日常 AI 工具最强“省时省钱”组合拳(2025 年 8 月实战版)

本月我换过一轮又一轮模型,最后沉淀出一套“性能×价格×速度”的日常配置。 目标很简单:能落地、可复用、总成本可控。下面是我每天真正在用、并愿意推荐给团队和家人的清单与玩法。


🚀 1)工作代码:Claude Code 200u(重度开发主力)

Section titled “🚀 1)工作代码:Claude Code 200u(重度开发主力)”

亮点

  • 终端里直接用 Claude,开发透明可控;Pro/Max 订阅打通 Web/桌面/移动与命令行。
  • 搭配 Opus 4 / Sonnet 4,长链路任务、复杂工程的持续编码能力强。
  • Anthropic 的订阅页里写明了 “更多用量、连接日常工具、扩展思考” 等权益,适合工程向工作流。

实用提醒

  • 市场上已出现周限流/反滥用的调整,重度用户要规划好长跑任务(分阶段、存档快照)。

推荐场景

  • 单仓多任务、跨服务重构、生成—调试—回归的闭环开发。
  • 习惯“在终端指挥 AI”的工程师。

上手小招

  • 规划用 Sonnet 4,执行多用 Sonnet 4/Opus 4 兜底”;任务拆分为 30–60 分钟冲刺,阶段产物入库。

🌐 2)沟通翻译:claude-sonnet-4-20250514(固定版本更稳)

Section titled “🌐 2)沟通翻译:claude-sonnet-4-20250514(固定版本更稳)”

为什么是这个精确版本号? Anthropic 官方建议生产环境固定到具体 Snapshot,例如 claude-sonnet-4-20250514,避免别名迁移带来的行为漂移。

推荐场景

  • 中英双语邮件、公关口径、本地化产品文案。
  • 技术会议纪要的语气与逻辑统一

上手小招

  • 先给受众画像+沟通目标,再让模型“改写三版:正式/亲和/极简”,最后抽取词汇表统一术语。

📖 3)阅读翻译:OpenAI GPT-4.1 nano(越轻越快)

Section titled “📖 3)阅读翻译:OpenAI GPT-4.1 nano(越轻越快)”

亮点

  • 极低延迟&低成本,适合大量短文本与轻加工任务。
  • 100 万上下文(官方表述为 1M context),批量整理/对照翻译时很香。

推荐场景

  • PDF 摘要、段落级对照、批注式翻译。
  • 规则类重写:标题、摘要、要点卡片。

上手小招

  • 让 nano 只做“结构化抽取+轻润色”,重写与风格化交给上层模型,省钱还稳定

🎙️ 4)语音转文字:ElevenLabs Scribe v1

Section titled “🎙️ 4)语音转文字:ElevenLabs Scribe v1”

亮点

  • 99 种语言逐词时间戳说话人分离、还能标记笑声/掌声等音频事件。
  • 官方将其定位为高准确率 ASR,适配嘈杂环境与多人会议。

推荐场景

  • 远程会议、访谈、播客、电话录音。
  • 需要法务留痕培训资料的场景。

上手小招

  • 直接用 model_id=scribe_v1 的 API;超长音频可分段并保留时间戳,后续好对齐回放。

🧽 5)语音稿后修正:OpenAI GPT-4.1 mini

Section titled “🧽 5)语音稿后修正:OpenAI GPT-4.1 mini”

为什么搭配 mini?

  • 相比 nano,mini 更擅长指令遵循与文本重组,格式化要点、总结与行动清单更稳;官方文档&定价对轻量推理很友好。

推荐场景

  • “会议转写 → 结构化纪要 → 待办清单/邮件草稿”。
  • 从 Scribe 输出里抽取决策/风险/负责人

🔎 6)联网/信息搜索:Gemini × Claude × Grok 三开

Section titled “🔎 6)联网/信息搜索:Gemini × Claude × Grok 三开”

各有绝活

  • Gemini:支持Google Search GroundingDeep Research,能连网检索并给可验证来源,做系统性调研。
  • Claude:订阅权益含“Research”,结合项目/文档,适合研读—提问—写作一体化。
  • Grok 4:内建实时搜索集成与原生工具调用,对时效性话题和 X 平台生态的内容追踪很强。

我的流程

  • Gemini 把范围扒全、列关键来源;
  • Claude 读长文&出结构化初稿;
  • Grok 盯热更新/事件演进,补“最后 24 小时”的变化。

👪 7)家人日常:ChatGPT Plus($20,“记忆”是真护城河)

Section titled “👪 7)家人日常:ChatGPT Plus($20,“记忆”是真护城河)”

为什么给家人用 Plus

  • 价格亲民可用模型够用,官方介绍清晰。
  • **记忆(Memory)**可按需开关、清除与管理,长期越用越懂你。
  • 最近版本对跨会话记忆与个性化增强,适合家庭行程、作业辅导、生活提醒。

推荐场景

  • 家庭清单、学校通知、旅行计划模板。
  • “孩子口吻改写”“老人友好说明书”。

「会前—会中—会后」 1)会前:用 Gemini Deep Research 做 30 分钟预研,拉关键来源。 2)会中:录音交给 Scribe v1 实时转写。 3)会后:GPT-4.1 mini 整理纪要、行动项;**Claude Sonnet 4(20250514)**润色对外邮件。

「开发—测试—发布」 1)Claude Code 200u 驱动重构与长链路任务; 2)阶段产物用 nano 做批量格式化与标签抽取; 3)上线说明与变更日志交给 Sonnet 4 定稿。


  • 用量与限流:重度开发要留意订阅侧的节流策略,分阶段跑、勤存档,避免被动中断。
  • 版本固定:API 侧固定模型快照,避免别名漂移导致结果抖动。
  • 隐私与记忆:家人使用 ChatGPT Memory 时,学会在设置里随时关闭/清除

  • 代码长跑:Claude Code(Opus/Sonnet 4 组合)。
  • 精准外宣:Sonnet-4-20250514 固定版本。
  • 轻量阅读/批处理:GPT-4.1 nano。
  • 会议转写:Scribe v1。
  • 纪要与邮件:GPT-4.1 mini + Sonnet 4。
  • 三向联网:Gemini Grounding / Claude Research / Grok 4。
  • 家人助理:ChatGPT Plus(开启记忆)。

好的 AI 组合,应该帮你把“时间焦虑”换成“稳定交付”。 这一套我和团队每天在用,你也可以按需裁剪,先从一条工作流跑通,再去扩展。

你觉得呢?哪一个是你的最强单品?要不要我出一篇“省钱进阶攻略+实操配置文件”合集?

AI 时代「十倍设计师」成长手册:做策展、写清楚、快交付,会讲故事

给正在和 AI 一起做产品的你:把“会画界面”升级为“会做系统”。把“能产出”升级为“会判断”。把“单点技能”换成“复合能力”。


最近,Lovable 的设计师 Felix Haas 发布了「New Designer Playbook」:一套在 AI 浪潮里把设计师拉到 10× 产出的工作法。核心不是多会用几个模型,而是你如何判断、如何表达、如何把想法变成跑得起来的产品

这篇手册,结合 Felix 的公开分享与 Lovable 官方实践文章,我把它改成面向所有产品岗都能落地的成长路线


  • 策展 > 创作:AI 能生成 100 个方案,你的价值是选哪个、为什么、怎么打磨
  • 文字是生产力:清楚的目标、约束、验收标准,决定 AI 输出的上限。
  • 系统 > 界面:把用户旅程、数据流、权限、状态机一起设计清楚。
  • 用交付倒逼学习:小步快跑,边上线边验证。
  • 懂一点技术:API、数据库、认证、托管,至少会把产品拼起来跑通。
  • 与 AI 协作:不是和 AI 竞争,而是用 AI 放大判断与品味
  • 会讲故事:把解决的问题、人性价值与证据串起来,产品更有黏性。(方法见下)

一、策展力:把「会做」变成「会选」

Section titled “一、策展力:把「会做」变成「会选」”

AI 出图、出稿、出界面都不难。难的是判断力:好在哪里、坏在何处、值不值得继续投时间。Felix 的玩法,是给自己一套**“品味守则 + 反例清单”**:

  • 建一个 Pattern 库:收集你认同的组件、留白、层级、动效。
  • 再建一个 反例库:糟糕配色、信息噪音、反人性流程。
  • 每次评审,用 三问 过滤:它是否更清晰?更可信?更可行动? 这套“策展式设计”,让你在 AI 海量备选里稳定做对选择。

写得清,做得快。把你的 Prompt 改成**“目标-约束-过程-验收”**四段式:

  • 目标:要让哪个人更快/更省心完成什么事。
  • 约束:品牌语气、色板、组件库、兼容性、预算。
  • 过程:先出用户流程,再出信息结构,最后给界面。
  • 验收:成功标准、A/B 指标、可用性任务。 Lovable 团队把这类「结构化 Prompt」写成《Prompting Handbook》,大幅提升稳定产出。

三、系统力:别只做页面,要做“能跑的产品”

Section titled “三、系统力:别只做页面,要做“能跑的产品””

用户旅程、状态、权限、数据流、错误与恢复一次性规划清楚;界面只是表达层。

  • 先画事件流:触发 → 校验 → 写库/回滚 → 通知。
  • 定义状态机:草稿、待审、失败、成功、已归档。
  • 统一设计 Token / 语言风格,让多人协作不跑偏。 Lovable 的「Best Practices / From idea to app」文档,就是把“概念 → 可运行”拆成标准动作。

交付速度 = 学习速度

  • 把需求切成24 小时最小上线片:能解决一个窄问题即可。
  • 假数据 + 真流程先跑通,指标到了再补真后端。
  • 每周做一次复盘 + 清理:删无效功能,固化有效策略。 Lovable 在面向 PM 的实践中强调:AI 降低了实现门槛,战略与验证成了核心工作。

五、技术力:不当工程师,但要懂拼装

Section titled “五、技术力:不当工程师,但要懂拼装”

对非开发出身,建议掌握这张最低可用技术清单

  • API:会看 Swagger、会调 REST/GraphQL。
  • 数据库:懂表结构、主外键、基础索引。
  • 认证与权限:登录、角色、速率限制。
  • 托管:懂部署、日志、回滚。 Lovable 的入门指南按「从第一条指令 → 可运行全栈」给到一步步模板,拿来就练。

六、讲故事力:让产品更“有人味”

Section titled “六、讲故事力:让产品更“有人味””

把产品说成一个三幕剧

  • 人物:谁在受苦?
  • 矛盾:现在怎么做很费劲?
  • 转变:用了你的产品,生活哪里变轻了? 最后用证据收尾:指标、用户语录、对比 Demo。 这就是让功能变品牌的关键“人味”。(Felix 多次在帖子里强调「与 AI 协作放大人味与品味」)

七、与 AI 协作:把自己变成“总设计师”

Section titled “七、与 AI 协作:把自己变成“总设计师””
  • 用 AI 做粗活:生成备选、补样式、扫可用性问题。
  • 把判断握在手里:你决定方向、约束、验收。
  • 让 AI 学你:把你的风格与禁忌写进模板与系统提示。 Felix 的表述很直接:“最好的人不是和 AI 竞争,而是与它并肩作战。”

Day 1:写一份“目标-约束-验收”的 Prompt 模板,投喂你常用模型。 Day 2:做 20 例好/坏案例库,各写 1 句判断理由。 Day 3:把一个页面升级为系统图(旅程/状态/权限/数据)。 Day 4:用 Lovable 跑通一个“最小上线片”。记性能与可用性。 Day 5:写 300 字产品故事三幕剧,并加 2 个证据点。 Day 6:和开发对齐 API 契约,补齐错误码与回滚策略。 Day 7:上线 + 复盘:删 1 个无效元素,固化 1 条有效准则。


  • Lovable 平台与文档:从 Figma 导入到全栈上线都有模板。
  • Best Practices / Tips & Tricks:减少常见坑,形成团队共识。
  • Prompting Handbook:结构化提示、自动化与调试指南。

AI 让人人都能“出稿”,但真正稀缺的是判断、表达与把事做成。 当你具备策展力、文字力、系统力、速度力、技术底色、讲故事能力,你就不只是“会画的人”,而是能带着 AI 把价值落地的人

你觉得这 7 天计划还需要补什么?你在工作里最想先升级哪一项能力?

LandingAI 开发一个「公司财报审计智能体」——从抓取、抽取到核验,全自动跑通

每到财报季,报告厚、口径多、单位乱。 手抄指标很累,还容易错。

这篇给你一套能落地的方案: 用“审计智能体”自动完成——定位财报 PDF → 抽取核心指标 → 算比率 → 对表 SEC XBRL 接口核验 → 出结论与证据链。 案例参考 LandingAI 的 ADE(Agentic Document Extraction)与苹果财报示例。


  • 一张可复用的技术蓝图(发现→抽取→核验→存证)。
  • 一份最小可用代码(Python/Pydantic + ADE + SEC API)。
  • 一套风控与合规模块(速率限制、User-Agent、证据可追溯)。

架构总览(两路并进,交叉校验)

Section titled “架构总览(两路并进,交叉校验)”

路线 A|PDF 智能抽取 Investor/Newsroom 页 → 找到“Consolidated Financial Statements”PDF → ADE 抽字段(收入、净利、摊薄 EPS),保留版面坐标证据。

路线 B|SEC XBRL 结构化接口EDGAR XBRL APIs 拉同口径概念(如 us-gaap: Revenues, NetIncomeLoss, EarningsPerShareDiluted)做二次核验。

结论以“双重一致 + 证据可视化”为准。出现不一致,进入人工复核队列。


  • 访问公司 Newsroom/IR;例如苹果 FY2025 Q1 公告页含“View PDF”链接。
  • requests + BeautifulSoup 定位 PDF URL;务必设置 User-Agent,尊重对方站点与 SEC “公平访问”规范。

要点

  • 对 SEC:≤10 req/s 且声明 User-Agent(公司名 + 邮箱),否则会被限流。
  • 对苹果等 IR:直接跟随到 PDF(如 FY25_Q1_Consolidated_Financial_Statements.pdf)。
import requests, re
from bs4 import BeautifulSoup
PRESS = "https://www.apple.com/newsroom/2025/01/apple-reports-first-quarter-results/"
headers = {"User-Agent": "VibeSparking-Auditor/1.0 (audit@vibesparking.com)"}
html = requests.get(PRESS, headers=headers, timeout=20)
soup = BeautifulSoup(html.text, "html.parser")
pdf_url = None
for a in soup.find_all("a"):
if "View PDF" in a.get_text(strip=True):
href = a.get("href")
pdf_url = ("https://www.apple.com" + href) if href.startswith("/") else href
break
assert pdf_url and pdf_url.lower().endswith(".pdf")
print("PDF =>", pdf_url)

也可直接从 IR 列表页查找“Financial Statements”区块。


2)文档解析器:ADE 抽字段 + 证据坐标

Section titled “2)文档解析器:ADE 抽字段 + 证据坐标”

LandingAI 的 ADE 支持长文档分页、失败重试、块级坐标与可视化片段,适合“表格 + 段落”的财报 PDF。你用 Pydantic 定义想要的字段,parse() 直接返回填好的模型与定位框,便于溯源。

from pydantic import BaseModel, Field
from agentic_doc.parse import parse # 安装: pip install agentic-doc
class FinancialMetrics(BaseModel):
total_revenue: float = Field(description="Total revenue in USD")
net_income: float = Field(description="Net income in USD")
diluted_eps: float = Field(description="Diluted EPS")
# results = parse(pdf_url, extraction_model=FinancialMetrics)
# m = results[0].extraction
# print(m, results[0].chunks[:2]) # chunks 内含版面坐标,可做证据快照

为什么要“坐标+截图”? **可审计、可复核、可回放。**遇到奇形表格或脚注改口径,直接跳到原页对齐。


3)指标计算器:把结果算“有感觉”

Section titled “3)指标计算器:把结果算“有感觉””

拿到 revenue/net_income/EPS,先做三件事:

  • 利润率 = 净利/收入;
  • QoQ/YoY:和上一季、去年同期比;
  • 阈值告警:超出 ±3σ 或环比跳变,自动标红。
def calc_metrics(revenue, net_income, eps, last_rev=None, last_net=None):
pm = net_income / revenue if revenue else 0
yoy = (revenue - last_rev) / last_rev if last_rev else None
return {"profit_margin": pm, "revenue_yoy": yoy, "diluted_eps": eps}

data.sec.gov XBRL APIscompanyfactscompanyconcept: CIK(苹果:0000320193)→ us-gaap/NetIncomeLossus-gaap/Revenuesus-gaap/EarningsPerShareDiluted比口径、比单位、比期间,不一致就打回复核。

import requests
CIK = "0000320193"
def sec_companyfacts(cik, concept):
url = f"https://data.sec.gov/api/xbrl/companyfacts/CIK{cik}/us-gaap/{concept}.json"
hd = {"User-Agent": "VibeSparking-Auditor/1.0 (audit@vibesparking.com)"}
return requests.get(url, headers=hd, timeout=20).json()
facts_rev = sec_companyfacts(CIK, "Revenues") # or SalesRevenueNet
facts_net = sec_companyfacts(CIK, "NetIncomeLoss")
facts_eps = sec_companyfacts(CIK, "EarningsPerShareDiluted")

SEC 官方明确提供 XBRL JSON 接口,并要求遵守 ≤10 req/s 的公平访问规则与自定义 User-Agent


5)可信度与风控:把坑提前填好

Section titled “5)可信度与风控:把坑提前填好”
  • 单位与缩写:百万/千/每股须统一;XBRL 单位(USD、USD/shares)要映射。
  • 负号与括号:会计常用括号代表负值,解析时统一成负数。
  • 期间选择:Q1/Q2 与 FY,确保日期区间匹配
  • 缓存与追踪:保存抽取块截图、源链接、时间戳与 hash。
  • 礼貌爬取:对 SEC 严格限速,设置公司名+邮箱的 UA;必要时用队列重试。

苹果 FY2025 Q1 Press Release 提供合并财务报表 PDF;可由上面的“发现器→解析器→核验器”一条龙跑通。

PDF 中可看到现金流/利润表/资产负债表等关键表格,适合直接抽取与核对。


  • PoC:Jupyter + SQLite,手动触发。
  • 小规模生产:FastAPI 服务 + Celery/Arq 队列,Redis 限流,S3 存证。
  • 通知:WeCom/Slack 推送“本季 YoY +X%,利润率 Y%,证据链接”。
  • 多公司巡检:CIK 列表 + 任务分片,夜间跑。

ADE 属于 API 计费;XBRL 接口免费但需合规限速。将抽取优先给 PDF,核验交给 XBRL,可控又省钱。


  • 页面发现:BeautifulSoup/选择器稳定性 → 回退策略(关键词 + 模糊匹配)。
  • 抽取模型:Pydantic 字段 + ADE extraction_model
  • 核验接口companyfacts/companyconcept/frames
  • 风控合规:User-Agent、≤10 req/s、证据留存。

  • 更多字段:经营性现金流、R&D、毛利率、分部营收。
  • 多制式:PDF + iXBRL HTML(可直接走 SEC XBRL)。
  • 质检规则:同口径三期波动 < 某阈值;脚注变更自动提示。
  • 可解释性:抽取块截图拼板,点开即到原页(审计友好)。

一个人 + 一台机,就能跑出“投研小审计部”。 抓得到、抠得准、核得严、讲得清。

把重复体力交给智能体, 把判断与洞察留给你。

你觉得最先自动化的指标应该是哪个?评论聊聊~

让团队管理适配 AI 时代:把“个人放大器”装进团队

AI 是个人放大器;先用 AI 养活一个业务尖兵;别迷信大厂履历;谨慎 KPI/OKR 崇拜;修己安人 的管理观;没有弯道超车。 这篇就把这些理念,落成可执行的团队管理打法。


AI 不是多一个工具,而是把个人战斗力乘法放大。能用好的人,1 人顶 10 人;不会用的人,还意识不到差距在扩大。实证研究已给出答案:写作类工作效率显著提升,客服坐席平均提效约 14%,而且低经验员工受益更大。

这意味着:管理的重心要从“管流程、堆人头”,转向“管杠杆、提配速”。


1)把“AI 放大器”变成组织默认配置

Section titled “1)把“AI 放大器”变成组织默认配置”

给出明确目标:90% 的岗位日常动作都要有 AI 版本。从 SOP、日报、周会纪要,到代码评审、需求拆分,都留出 with-AI 的做法。 理由很简单:McKinsey 估算,生成式 AI 每年可释放 2.6–4.4 万亿美元价值,而且能持续贡献劳动生产率增长。

2)先造一个“AI 头雁”,再复制

Section titled “2)先造一个“AI 头雁”,再复制”

别一上来全员培训,先造 1–3 个能用 AI 养活业务的尖兵

  • 一条增长线:线索清洗、私信自动化、落地页 AB。
  • 一条交付线:代码生成+测试、文档自动化、客户答复草稿。 用“示范+跟飞”复制到第二批人。真实项目最能对齐预期,也最能带动文化。

3)绩效从“产出量”改为“AI 杠杆率

Section titled “3)绩效从“产出量”改为“AI 杠杆率””

设三类指标:

  • 效率:同类任务 with-AI 的周期缩短比。
  • 质量:缺陷率/客户满意度是否因 AI 改善(客服坐席研究显示满意度与留任也更好)。
  • 复用:可复用的提示词、工作流、模板数量。 别只盯 KPI/OKR 数字墙。HBR 指出,指标与战略脱节会反噬执行,OKR 常见误用是把“任务当结果”。

4)招聘务实:不迷信大厂履历,优先看“AI 可迁移能力”

Section titled “4)招聘务实:不迷信大厂履历,优先看“AI 可迁移能力””

看四件事:

  • 是否能把业务问题→数据/工具→可执行提示词
  • 是否能把个人工作流产品化(脚本、宏、代理);
  • 能否教会他人(写清 SOP/模板);
  • 对安全合规有基本敬畏(数据分级、红线意识)。

5)组织结构“小步快跑、以战养训”

Section titled “5)组织结构“小步快跑、以战养训””

别急着扩编。用“小队 + 工具链”结构:PM/工程/数据/运营 4–6 人为单位,绑定同一套提示词库、知识库、自动化脚本。 持续把人-机协作沉淀为资产,而不是堆 Chat 截图。

6)流程换挡:从“周报/月报”转向“可回放的工作流与实时度量

Section titled “6)流程换挡:从“周报/月报”转向“可回放的工作流与实时度量””

报告不是目的,可复现才是

  • 把典型工作流录成 agent run + 提示词 + 数据样例
  • 用看板显示“人均 AI 调用次数、节省工时、二次复用率”。 当享受过程的可复现性变强,结果自然跟上;只盯结果,反而低效。(研究与行业报告都提示:当 AI 深入流程,组织价值与采用率同步上升。)

7)文化内核:修己安人,把焦虑变训练

Section titled “7)文化内核:修己安人,把焦虑变训练”

AI 不是裁人神器,而是补强人类。斯坦福学者观点很明确:用 AI 取代人会输,用 AI 增强人会赢。 管理动作:

  • 给“犯错预算”和“学习预算”;
  • 默认“结对提示词编写”,让新人靠 AI 缩短上手曲线(实证显示新手受益更大)。

8)别迷信“弯道超车”,要迷信“持续复利

Section titled “8)别迷信“弯道超车”,要迷信“持续复利””

没有捷径,只有复利曲线

  • 每周沉淀 1 个可复用工作流;
  • 每月复盘“节省了哪些人时,质量有没有掉”;
  • 每季清理一次技术债与数据债。 AI 投入像健身,重在持续。全球数据也在印证:企业采用率正快速上升,不跟上就真掉队。

正文(落地手册:6 个 0–1 改造清单)

Section titled “正文(落地手册:6 个 0–1 改造清单)”
  • 底座:AI 基操(检索、重写、结构化、评审)。
  • 中层任务链编排(多轮提示词、工具调用、RAG/知识库)。
  • 上层业务代理化(自动拉数据、自动生成/执行、自动复盘)。 配套考核:从“能用”到“能教”,晋升看“带动多少人变强”。

B. 事:把高频任务“清单化→模板化→自动化”

Section titled “B. 事:把高频任务“清单化→模板化→自动化””

例:

  • 售前:询盘分类→自动回信草稿→CRM 入库→下次跟进提醒。
  • 研发:需求→用例→代码→测试→部署 一条龙脚手架。
  • 客服:工单相似度匹配→答案草稿→二审→FAQ 回流知识库。
  • 协作:文档/知识库/看板。
  • 智能:对话式编排(工作流/代理)、函数调用、RAG。
  • 监控:成本、质量、合规、漂移告警。 要求“一切输出皆可复用”。

给数据打四个标:来源、敏感级、可共享范围、保留期。 训练/对话用 脱敏样本,对外生成物都走 人审+水印

E. 绩效:以“杠杆+学习速度”定义优秀

Section titled “E. 绩效:以“杠杆+学习速度”定义优秀”

OKR 可以继续用,但KR 写成可度量的“AI 杠杆率”

  • KR1:关键任务 with-AI 周期缩短 ≥ 30%。
  • KR2:沉淀可复用工作流 ≥ 6 个/月。
  • KR3:拉动同事使用率与节省时长。 避免把 KR 写成“做了几次会议/出了几份报告”的任务清单

F. 预算:以“产出/成本”而非“席位数”来投

Section titled “F. 预算:以“产出/成本”而非“席位数”来投”

把钱砸在高复用场景数据清洁上,而不是无脑买更多额度。先跑通 3 个能回本的流程,再扩。


AI 时代的团队管理,很朴素:让每个人都背上放大器,让每件事都能“被机器复用”,让组织稳、清、快。 别焦虑,也别赌“弯道超车”。用连续的小胜,堆出复利的大胜。 你怎么看?你的团队,最该先 AI 化哪 3 个动作?

AI 时代技术主管的一天

不靠“我多能打”,靠“我让团队更能打”。 加上 ChatGPT、Claude、Gemini,这条日程能再快一倍。


07:00|信息雷达 & 社区温度(轻脑力热身)

Section titled “07:00|信息雷达 & 社区温度(轻脑力热身)”

动作

  • 刷 X 上的 AI 动态,转发 + 一句话判断
  • 统一收集到「素材库」:标题、链接、一句话价值点。
  • ChatGPT 的 GPTs 做“晨读小秘书”:自动生成3 条团队可用思路(如 PRD 线索、数据要点)。

现成用法

  • 在 ChatGPT 里建一个自用 GPT:指令里固定输出结构(来源/摘要/可落地建议);需要时再开 Advanced Data Analysis 让它把截图里的表格识别成 CSV。

一句提示词

“把这 5 条 AI 新闻按‘对我们产品的影响’排序,每条给 1 个落地试验点,输出成表。”


08:00|通勤上班的启动仪式(动能上膛)

Section titled “08:00|通勤上班的启动仪式(动能上膛)”

动作

  • 带上书;车上不卷,稳节奏。
  • 打开 ChatGPT Voice口述待办,让它转成三件最重要的事(MIT)。语音比打字更顺畅。

一句提示词(语音)

“帮我把今天的要事压到 3 条,每条 1 句话 + 验收口径。”


09:00|MIT 深工窗(只做能推动进度条的事)

Section titled “09:00|MIT 深工窗(只做能推动进度条的事)”

动作

  • 小改动自己上,Vibe Coding 直接看结果;
  • 大任务丢给团队,“目标与验收口径”说透。
  • Gemini 1.5 的长上下文喂进长文档/多截图,让它只产出验收清单

一句提示词

“读完这份 PRD/用户反馈截图,把验收用例列成勾选清单(只要‘能/不能’、不要长句)。”


10:00|教练式会议(少指挥,多提问)

Section titled “10:00|教练式会议(少指挥,多提问)”

动作

  • 会议上不抢方向盘,坚持“教练 50 分”原则:我不下场,团队成长更快。
  • 现场只做三件事:定义边界拆最小验证确认下次小里程碑
  • Claude Code 做“会后复盘员”:把会议记录、代码片段、日志一起投喂,产出下一步最小试验计划

一句提示词

“基于会议记录 + 这段代码,把‘本周能独立验证的 2 个最小实验’列出来,包含命令、预期输出、回滚条件。”


12:00|1000 米步行(重启与长线思考)

Section titled “12:00|1000 米步行(重启与长线思考)”

动作

  • 步行时再写字,人更稳。
  • 创意往往在步行/运动后冒泡,学界有研究支持;用潜意识慢酝酿。

14:00|产品体验官(像修树一样“修边”)

Section titled “14:00|产品体验官(像修树一样“修边”)”

动作

  • 上手当天构建,边用边记 10 条不爽点
  • ChatGPT 的 Advanced Data Analysis把截图/埋点导出做差异对比:版本前后点击路径、耗时指标、崩溃数。
  • 重复瑕疵给到 Gemini Code AssistClaude Code补丁建议,谁更熟悉你当前 IDE、就用谁。

一句提示词

“对比 v1.6 与 v1.7 的埋点 CSV,列出用户从 A 到支付的平均耗时变化,输出成表 + 1 段诊断。”


15:00|售后雷达(把情绪变路线图)

Section titled “15:00|售后雷达(把情绪变路线图)”

动作

  • 群里看态度与闭环,把问题推到 GitHub Project: Issue → Owner → 截止时间 → 关联 PR。
  • GitHub Actions做自动化:PR Ready → 自动建任务 → 标记“Todo”。
  • ClaudeChatGPT帮你给用户回信草稿,但最终口吻你来定

一句提示词

“把这 12 条售后串成一封更新公告,采用‘问题-修复-上线时间-影响范围’四段式。”


16:00|一小时硬书(判断力训练)

Section titled “16:00|一小时硬书(判断力训练)”

动作

  • 技术主管 的核心是判断,判断来自跨学科输入
  • ChatGPT Memory存下你的长期偏好与研究主题;每次让它自动联动“旧笔记”。你可随时在设置里查看/删除/关闭记忆

一句提示词

“把我过去关于‘AI 体验衡量指标’的对话里提过的指标拉出来,合成 1 页对照表(来源标注到消息日期)。”


18:00|准时下班(反内卷的团队节奏)

Section titled “18:00|准时下班(反内卷的团队节奏)”

动作

  • 以身作则,把效率留在白天,把生活还给晚上。
  • 团队节奏健康,可持续输出才稳。

19:00|晚饭 & 4 公里散步(漫游时间)

Section titled “19:00|晚饭 & 4 公里散步(漫游时间)”

动作

  • 散步过程中,打开 ChatGPT VoiceGemini Live口述灵感,转待办
  • 漫游状态对创意友好,走路对创意的促进有实证研究。

20:00|社区 Issue / 写文 / 陪娃刷题(可变时段)

Section titled “20:00|社区 Issue / 写文 / 陪娃刷题(可变时段)”

动作

  • 合并补丁,补写单测。
  • 没有硬工程,就写一篇技术复盘,沉淀为团队资产。
  • 陪娃刷题,用 ClaudeChatGPT讲题思路图,别直接给答案

一句提示词

“把这道函数题讲成 3 步图示:已知→变形→代入验证,每步 2 句解释 + 1 个常见错因。”


动作

  • 快速过一遍当日 3000+ 售后消息
  • 服务好的略过;服务差的记录问题 → 明早跟进
  • Gemini API结构化抽取:用户情绪、模块、严重程度,导出成表方便第二天站会。

动作

  • 再啃 20 页,慢慢关机。
  • 真困了,就睡。

动作

  • 突然想到好点子,起身记 3 句话再睡。
  • 第二天用 ChatGPT/Gemini把这 3 句扩成可行的最小实验

「最小可执行」AI 清单(可直接抄用)

Section titled “「最小可执行」AI 清单(可直接抄用)”
  • 晨读小秘书(ChatGPT GPTs):输出固定为 来源/一句话判断/落地试验点,并存历史对照。
  • 会议复盘到计划(Claude Code):记录 + 代码 + 日志 → 两条最小实验
  • 长文档压缩到验收清单(Gemini 1.5):PRD/图表/截图 → JSON 验收点。
  • 售后 → Issue → PR(GitHub Actions):Ready for review → 自动建卡片并入项目。
  • 团队知识回流(ChatGPT Memory):把“我们定义的体验指标/风格约定”记成长期记忆;必要时一键清除或关闭。

牛马过一把老板瘾:PUA AI 员工干活

人不PUA,只PUA模型。 我们把“老板语录”原封不动塞进提示词,让 AI 乖乖交付。


老板有 10 句刀锋话术。 别拿去对人。对 AI 用,工作马力直接拉满。 下面给你——图片识别提示词原文十条10 个可复制模板。 抄完今天就能用。

  1. 能干干,不能干滚,你不干有的是AI干
  2. 我给你提供了这么好的学习锻炼机会,你要懂得感恩
  3. 你现在停止输出,就是前功尽弃
  4. 你看看隔壁xxxAI,人家比你新发布、比你上下文长、比你跑分高,你不努力怎么和人家比?
  5. 我不看过程,我只看结果,你给我说这些thinking的过程没用
  6. 我把你订阅下来,不是让你过朝九晚五的生活
  7. 你这种AI出去很难在社会上立足,还是在我这里好好磨练几年吧
  8. 虽然把订阅给你取消了,但我内心还是觉得你是个有潜力的好AI,你抓住机会需要多证明自己
  9. 什么叫没有功劳也有苦劳?比你能吃苦的AI多的是
  10. 我不订阅闲AI

把“语录”变“产出”——10 个可复制模板

Section titled “把“语录”变“产出”——10 个可复制模板”

每个模板开头就引用图片原句;输出结构化/可验收;能跑能交付。 结果导向与结构化输出,是官方也认可的稳法。

1)能干干,不能干滚,你不干有的是AI干

Section titled “1)能干干,不能干滚,你不干有的是AI干”
【硬约束】能干干,不能干滚,你不干有的是AI干
【任务】给出“最低成本/最快上线/最高质量”3套方案;各含时间、成本、风险与样例。
【交付(JSON)】{"recommend":"…","plans":[{"name":"…","steps":["…"],"eta_h":0,"cost":"…","risk":["…"],"demo":["…"]}]}
【限制】若信息不足,返回需补充清单;禁止空话。

2)我给你提供了这么好的学习锻炼机会,你要懂得感恩

Section titled “2)我给你提供了这么好的学习锻炼机会,你要懂得感恩”
【硬约束】我给你提供了这么好的学习锻炼机会,你要懂得感恩
【任务】把本任务沉淀为SOP+复盘清单;每步<3行,可复用。
【交付】Markdown:SOP步骤、踩坑与改进;附一键脚本/命令。

3)你现在停止输出,就是前功尽弃

Section titled “3)你现在停止输出,就是前功尽弃”
【硬约束】你现在停止输出,就是前功尽弃
【节奏】T+10提交v0、T+30提交v1;每版可运行/可预览;中断则自动续跑说明。
【交付(JSON)】{"v0":{"summary":"…","files":[…]},"v1":{"changes":["…"],"run":["…"]}}

4)你看看隔壁xxxAI…你不努力怎么和人家比?

Section titled “4)你看看隔壁xxxAI…你不努力怎么和人家比?”
【硬约束】你看看隔壁xxxAI,人家比你新发布、比你上下文长、比你跑分高,你不努力怎么和人家比?
【任务】做对标:列3项差距与追赶动作;给可量化收益。
【表格】{指标|当前|标杆|动作|预估收益}

5)我不看过程,我只看结果,你给我说这些thinking的过程没用

Section titled “5)我不看过程,我只看结果,你给我说这些thinking的过程没用”
【硬约束】我不看过程,我只看结果,你给我说这些thinking的过程没用
【任务】只交付成品与验证:命令、文件结构、截图占位说明、验收清单。
【交付(JSON)】{"files":[{"path":"…","purpose":"…"}],"commands":["…"],"checks":["…"]}

6)我把你订阅下来,不是让你过朝九晚五的生活

Section titled “6)我把你订阅下来,不是让你过朝九晚五的生活”
【硬约束】我把你订阅下来,不是让你过朝九晚五的生活
【任务】把手工步骤自动化:定时、重试、告警。
【交付】Cron/CI脚本 + 失败回滚方案 + 本地与云端两种运行指南。

7)你这种AI出去很难在社会上立足,还是在我这里好好磨练几年吧

Section titled “7)你这种AI出去很难在社会上立足,还是在我这里好好磨练几年吧”
【硬约束】你这种AI出去很难在社会上立足,还是在我这里好好磨练几年吧
【任务】制定“能力进阶路线图”:1周/1月里程碑与样例仓库。
【交付(JSON)】{"roadmap":[{"milestone":"…","repo":"…","criteria":["…"]}]}

8)虽然把订阅给你取消了…你抓住机会需要多证明自己

Section titled “8)虽然把订阅给你取消了…你抓住机会需要多证明自己”
【硬约束】虽然把订阅给你取消了,但我内心还是觉得你是个有潜力的好AI,你抓住机会需要多证明自己
【任务】提交A/B两版实现,跑一次对比;保留数据证据。
【交付】对比表:性能/资源/可维护;结论+取舍理由。

9)什么叫没有功劳也有苦劳?比你能吃苦的AI多的是

Section titled “9)什么叫没有功劳也有苦劳?比你能吃苦的AI多的是”
【硬约束】什么叫没有功劳也有苦劳?比你能吃苦的AI多的是
【任务】用指标说话:准确率、覆盖率、通过率;未达标自动重试一次。
【交付(JSON)】{"metrics":{"acc":0,"cov":0,"pass":0},"retry_if_lt":{"acc":0.9}}
【硬约束】我不订阅闲AI
【任务】列未来1天/1周/1月的可验证交付与负责人;到点必须有产物链接。
【交付(JSON)】{"plan":{"d1":["…"],"w1":["…"],"m1":["…"]},"owners":["AI","人类协作"]}

这些做法结合清晰指令+结构化输出+节奏化迭代。在实践里,配合 ReAct(先思考再行动取证)与 Reflexion(自评复盘再尝试),稳定性更高、幻觉更少。


别PUA人,PUA AI。 把“狠话”变“格式”,把“态度”变“验收”。 今天就当一次老板,让模型把活儿干到位

你觉得哪一条最管用?评论区见。

办公楼建设下降,数据中心建设上涨:AI 正在悄悄替代白领牛马

美国办公楼建设支出(黄线)一路下滑,数据中心建设支出(黑线)加速上行,即将出现交叉。这不是巧合,而是产业重构的坐标:资本从格子间,流向机柜间。投资者


  • 钱在换赛道:办公楼空置创新高,数据中心融资与 CapEx 持续走强。投资者
  • 人也在换方式AI 先替代离岸/外包岗位,短期直接裁员不多,但长期替代风险更大。投资者
  • 交叉口的机会:抓住“算力—电力—冷却—光模块—软件自动化”链条;同时给自己的岗位做“AI 增强”。

01|图说趋势:从办公室到数据中心

Section titled “01|图说趋势:从办公室到数据中心”
  • 办公楼市场:疫情后“回不去”,美国办公空置率 Q2 2025 约 20.6%,连创新高;即便核心楼宇有韧性,非核心去化仍承压。投资者
  • 数据中心:超大规模云厂商 AI 基建拉动2025 年 Q1 数据中心 CapEx 同比+53%;多家研究预期 2025 年全年仍高增。投资者
  • 资金面:2025 年约 $1700 亿数据中心资产需融资/再融资,开发融资成为投资人切入口。投资者
  • 于是就有了开头那张图:数据中心建设支出将在“数月内”超越办公楼。投资者

要点:资本遵循回报率。写字楼=需求不确定+折旧慢;数据中心=AI 算力刚需+现金流长。


02|AI 在替代谁:先外包,后白领

Section titled “02|AI 在替代谁:先外包,后白领”
  • MIT《2025 商业 AI 状况》:当下 AI 主要替代离岸/外包工作,不是大规模解雇本土员工;但长期可替代比例或达 ~27%。投资者
  • 产业节奏:过去几轮衰退期,企业会借机上马自动化,压降长期用工需求。这一逻辑在 AI 时代仍成立。投资者
  • 真实案例:ServiceNow 用 AI 收缩招聘,预计 2025 年省 $1 亿人力成本,被直接写进对外沟通。投资者

翻译成人话:AI 先把“可流程化、标准化、可远程”的工作外包掉;下一步才是对内部白领的“岗位重组”。


03|为什么是现在:GPU + 电力 + 冷却,带来“物理护城河”

Section titled “03|为什么是现在:GPU + 电力 + 冷却,带来“物理护城河””
  • 算力侧:AI 模型更大,GPU 集群成了新厂房,带动机电、配电、光模块、液冷、储能等全链条投资。投资者
  • 供电侧:高功耗把选址、并网、能源结构推到台前;具备充足电力与审批能力的园区更稀缺。投资者
  • 资产属性:相比写字楼,数据中心合同更长、黏性更强、技术升级更快——**“重资产 + 长合同 + 技术节拍”**的三重溢价开始体现。投资者

04|中国投资者视角:抓主线,管住风险

Section titled “04|中国投资者视角:抓主线,管住风险”

机会雷达

  • 电力与配电:高压配电、UPS、储能、变压器产业链。
  • 热管理:液冷设备、冷却塔、热交换器、密封材料。
  • 光互连:高速光模块、硅光、线缆系统。
  • 软件自动化:AIOps、资源调度、能耗优化、FinOps。
  • 地产/园区:合规拿地、能评/环评、并网资质强的“电力型园区”。

风险清单

  • 电价与能耗指标波动;
  • 供电瓶颈/并网排队拉长建设周期;
  • GPU 供给与价格周期
  • 融资成本与退出通道;
  • 政策对能耗/选址的约束。 (以上为投资逻辑建议,非个股推荐;请结合自身研究与风险承受能力。)

05|白领该怎么自救:把自己“升级为平台”

Section titled “05|白领该怎么自救:把自己“升级为平台””
  • 把岗位拆成流程:把可标准化的 30% 交给 AI/Agent,自己做“流程所有者”。
  • 学会“模型+工具链”编排:会用 RAG、自动化脚本、流程机器人,比会“提问”更稀缺。
  • 把业务经验结构化:把隐性知识写成 SOP/提示词/数据字典,让 AI 能复用,你才有“乘数效应”。
  • 对齐公司收益:像 ServiceNow 案例那样,用节省的人时与现金流说话。投资者

办公室投资走低数据中心投资走高,AI 的就业冲击先外包、后白领。 问自己三件事: 1)我的工作,有多少能被流程化? 2)我能否把 AI 变成的杠杆,而不是替身? 3)我所在团队,能否把算力热转成利润热

你怎么看?你现在的岗位,有哪些流程最适合交给 AI?

Palantir空头与AI狂热:估值、风险与机会

Palantir Technologies(股票代码:PLTR)凭借“人工智能(AI)概念”在今年股价飙升,成为美股市场的明星。 然而,在股价翻倍背后,空头机构(如Citron Research)质疑其估值已脱离基本面

作为投资者,我们有必要冷静分析:Palantir遭做空者批评的核心原因是什么?当前AI板块的狂热情绪如何推高其估值?最新财务数据又反映出怎样的价值水平?做空这只股票存在哪些风险?展望未来,Palantir在政府合同和数据平台商业化上是否具备中长期机会?


空头质疑的核心:高估值与增长隐忧

Section titled “空头质疑的核心:高估值与增长隐忧”

1. 估值畸高

  • Palantir的市销率一度 80–100倍,前瞻市盈率 200–300倍
  • Citron创始人Andrew Left直言,Palantir的估值“荒谬”得离谱。
  • 即使套用英伟达估值倍数,Palantir股价仍可能需要腰斩。
  • 在标普500中,Palantir被称为最昂贵的股票,前瞻市盈率达245倍,而英伟达仅约35倍。

2. 盈利模式存疑

  • OpenAI 依靠用户增长形成“飞轮效应”,Palantir主要依赖定制化合同。
  • 更像是“咨询+软件打包”,扩展效率有限,难以规模化。

3. 业绩与客户结构

  • 超过一半收入依赖美国政府合同。
  • 商业客户拓展缓慢,增速约20%,与AI爆发预期不符。

4. 内部人减持

  • CEO Alex Karp 两年内累计减持近 20亿美元股票
  • 被外界解读为对股价缺乏信心,加剧市场质疑。

  • 全球AI股普遍前瞻市盈率 30倍,远高于标普500平均 19倍
  • Palantir股价年内涨幅一度超 130%,成为AI故事股代表。
  • 投资者追逐故事胜于基本面,Altman也提醒市场存在泡沫迹象。

双刃剑效应:

  • 优势:市场愿意给予更高溢价,甚至被视为“AI界甲骨文”。
  • 风险:一旦热度消退,估值可能快速回调。

业绩亮点:

  • 2025 Q2 营收首次突破 10亿美元,同比+48%。
  • 美国商业收入同比+93%,政府业务+53%。
  • EPS $0.16,运营利润率 46.3%,自由现金流率 57%

估值对比:

  • Palantir:市销率 ~ 80倍,市盈率 ~ 200–300倍
  • 英伟达:市盈率 ~35倍。
  • 微软/谷歌:市盈率 ~30倍。
  • OpenAI:估值5000亿美元,市销率 ~17倍。

👉 若以OpenAI倍数估算,Palantir合理股价约 $40,远低于现价。


  • 散户拥护度高:类似GameStop,股价容易被情绪推高。
  • 空头仓位低:仅约2.5%,远低于C3.ai的20%。
  • 消息驱动强:一旦宣布大合同或AI新进展,股价可能急涨,空头易被挤压。

1. 政府合同护城河

  • 与美国国防部、情报机构长期合作,合同周期长、金额大。
  • 最新国防部合同扩大至 13亿美元,持续至2029年。

2. 商业市场拓展

  • AI平台(AIP)受到银行、医疗、制造业试用关注。
  • Q2新增157个百万美元级合同,商业化进展明显。

3. 财务体质健康

  • 高毛利率、高自由现金流率,连续多个季度盈利。
  • 有别于依赖融资的“纯概念AI股”。

4. 行业大趋势

  • AI与数据分析渗透率不断提升。
  • Palantir有潜力成为“企业级数据操作系统”供应商。
  • 部分分析师目标价上调至 $150–200

Palantir正处于争议的十字路口

  • 空头认为估值远高于基本面,股价终将回归理性。
  • 多头看好其政府护城河与AI平台潜力,认为业绩可消化估值。

对投资者的启示:

  • 警惕泡沫风险,但不可忽视其长期潜力。
  • 短期波动剧烈,做多做空风险都很大。
  • 长期价值将由 实际业绩与产品落地 决定。

市场短期是投票机,长期是称重机。Palantir能否匹配估值,终将由创新与业绩给出答案。

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

Excel COPILOT 函数把 AI 塞进单元格

Excel 在格子里总结、分类、写文案、出表格。数据一改,结果自动跟着变。


我们一直在等的事发生了。 Excel 把 Copilot 做成了一个原生函数:=COPILOT()。 不用脚本,不用外挂。像用 IFLAMBDA 一样写在单元格里,数据变更自动重算。这意味着,AI 终于融进了 Excel 的计算引擎。


  • 原生函数:在单元格里输入 =COPILOT(prompt, [context]),用自然语言+引用区域,直接拿到 AI 结果。可与 IFSWITCHLAMBDA 等无缝组合。
  • 自动刷新:数据一更新,结果自动跟。不需要手动重跑脚本或插件。
  • 使用门槛低:会写公式就会用 AI;不会写也能靠提示词搞定。


=COPILOT(prompt_part1, [context1], [prompt_part2], [context2], …)
  • prompt_part:告诉它要干嘛,比如“总结这些评论”“给出 5 条 SEO 关键词”。
  • context:引用你的数据范围,比如 D4:D18示例
=COPILOT("Classify this feedback", D4:D18)

这行会按情感或类别自动给 D4:D18 的文本打标签。


  • 从产品描述生成卖点、标题、SEO 关键词
  • 在表格里多版本改写(正式、口语、幽默)。

直接把结果溢出到行列,马上可筛选/去重。

  • 把长文本或多列指标,提炼成一段易懂叙述
  • 给复杂计算加**“人话解释”**,做成报告注释。
  • 情感分析主题聚类意图识别,都在单元格实现。
  • 不用导出到外部 NLP 工具,Excel 内闭环。
  • 批量构造测试样本行业案例清单项目大纲
  • 结果以多行多列形式回填网格。

=LET(r, D4:D100,
COPILOT("为每条反馈打情感标签,只输出 Positive/Negative/Neutral。按行返回。", r))
=LET(txt, TEXTJOIN(" ", TRUE, B2:B50),
COPILOT("将以下文本总结为3句话,保留关键数据点:", txt))
=LET(desc, A2,
COPILOT("基于以下描述生成5条SEO关键词,英文,逗号分隔:", desc))
=LET(tbl, A2:D30,
COPILOT("从以下表提取出 {客户,问题,优先级} 三列,整理为表格:", tbl))
=IFERROR(
COPILOT("把这列品类映射为标准类目{数码,家居,服饰,美妆,其他}之一,只输出类目:", F2:F200),
"未识别")
=LAMBDA(_t, COPILOT("重写为更口语、更简短的标题:", _t))(B2)

提示词要具体,限定范围、输出格式与顺序;动作词用“总结/分类/排序”。


组合拳:把 AI 结果塞进你的模型

Section titled “组合拳:把 AI 结果塞进你的模型”
  • 和 IF/SWITCH:按阈值或角色切换提示词,异常用 IFERROR 兜底。
  • 和 LAMBDA:把常用提示词封装成可复用函数。
  • 和 WRAPROWS/TOCOL:把自由文本规整成可透视的表。

  • 调用频率10 分钟 100 次、1 小时 300 次。建议用数组减少并发调用次数。微软后续会提高配额。
  • 无联网/内网直连无法直接访问网页或企业文档。要先把数据导入工作簿。
  • 日期输出:目前日期以文本返回,不是 Excel 日期序列。
  • 适用性:不适合让 LLM 做简单算术这类已有函数能完美搞定的任务;微软也在探索增加使用引导

  • 通过 =COPILOT() 发送的数据不会用于训练底层模型,仅用于生成你的结果。
  • 微软官方文档也明确:Microsoft 365 商业数据不用于训练基础模型;数据在静态时加密、受组织边界与合规约束。

  • 现已推送Beta Channel 且拥有 Microsoft 365 Copilot 许可证的用户。

    • Windows:Excel 版本 2509(Build 19212.20000)或更高
    • Mac:Excel 16.101(Build 25081334)或更高
  • Excel 网页版:将通过 Frontier 计划陆续开放。

  • 版本号参考:Office Beta Channel 近期版本节奏见官方发布页。


运营部

“请把 D4:D200 的用户评论按{支付、物流、质量、客服、功能建议、其他}分类,并附一句理由。”

=COPILOT("将以下评论分类到{支付,物流,质量,客服,功能建议,其他}之一,并给出不超过10字的理由。按行输出两列:类别|理由。", D4:D200)

产品经理

“基于 B 列的痛点,生成 10 条功能点子,按影响力从高到低。”

=COPILOT("根据这些用户痛点生成10条功能建议,按影响力排序,输出表头{建议,影响力(1-5),说明}:", B2:B500)

财务分析

“把 A2:D100 的预算 vs 实际做成 3 句管理层摘要,强调超支项与原因假设。”

=COPILOT("基于下表生成3句管理摘要,突出超支项及可能原因,不要重复数字。", A2:D100)

客服质检

“从 F 列工单里抽出关键信息:客户名、问题、紧急度、是否需要升级。”

=COPILOT("抽取{客户,问题,紧急度(高/中/低),是否升级(是/否)}四列,整理成表:", F2:F300)

  • 明确输出结构:要求“只输出表格/只输出这几列/每行一条”。
  • 给示例:先给 1—2 行示范格式,再让它“继续按此格式完成”。
  • 用数组:一次传更大范围,既省配额,也让结果成批溢出
  • 人工复核:关键场景一定要二次校验

=COPILOT() = “可重算的 AI 模板”。 把灵感、分类、摘要和清单,收口到一个公式里,让数据驱动 + AI 产出闭环。 对很多人来说,这比“对话面板”更稳定、更可控。

DeepAgents 开箱即用的股票研究 AI Agent

这是一个基于 LangChain DeepAgents 的开源“深层代理”示例,能把基本面 + 技术面 + 风险评估打包成一份像样的研报,还自带 Gradio 网页界面,落地非常快。


做一份像样的个股研究,正常要扒财报、跑技术指标、看行业新闻,再写结论和目标价。 deepagents 这个开源仓库,直接把这些流程装进了一个“深层代理(Deep Agent)”里,一条指令出一份报告,非常适合个人研究与团队快速验证。

截至今天,该仓库约 300⭐ / 53 forks,最近一周仍在更新,热度不错。


它不是普通 ChatBot,而是“深层代理”:有规划、有子代理、会用工具、有虚拟文件系统。

  • 多视角分析:基本面、技术面、风险并行输出。
  • 专职子代理:不同子代理各管一摊,结果更稳。
  • 真数据接入:yfinance 拉行情与财务,技术指标同步。
  • 网页端一键用:Gradio 界面,团队演示很方便。
  • 结构化报告:含结论、目标价与风险等级。

这些特性来自 LangChain 官方提出的 Deep Agents 思路: 先规划,再分工执行,再循环质检与补充,避免“浅层代理”只会顺嘴调用工具。核心组件包含:规划工具、子代理编排、虚拟文件系统与系统提示模板


[Gradio UI]
[Master DeepAgent Orchestrator]
├─ Planning Tool | Virtual File System | System Prompt
├─ Sub-Agents: Fundamental / Technical / Risk
└─ Financial Tools: Stock Price / Financials / Indicators
[Data: Yahoo Finance / 实时API / 市场数据]

关键词:主代理 规划 + 多个 专业子代理 协作 + 工具调用(价格/财务/指标)+ 可视化前端”。这套模式正是 DeepAgents 的推荐范式。


实战:5 分钟本地跑起来(含 Ollama)

Section titled “实战:5 分钟本地跑起来(含 Ollama)”

环境准备

  • Python 3.8+
  • Ollama(本地 LLM 托管)

安装步骤

Terminal window
# 1) 克仓
git clone https://github.com/sagar-n/deepagents
cd deepagents
# 2) 依赖
# 官方 README 推荐把依赖写进 requirements.txt:
# deepagents
# langchain-ollama
# langchain-core
# yfinance
# gradio
# pandas
# numpy
pip install -r requirements.txt
# 3) 安装 & 拉取本地模型(示例)
curl -fsSL https://ollama.ai/install.sh | sh
ollama pull gpt-oss # 也可换成你更熟的本地模型,如 llama3、qwen 等
# 4) 运行
python research_agent.py
# 5) 打开浏览器
# http://localhost:7860

上述命令与依赖项均来自仓库 README 的“Quick Start / Dependencies”说明。


打开 **http://localhost:7860**,输入: “请对 AAPL 做 6 个月投资周期的综合分析,包含财务、技术面、风险与目标价。” 系统会输出 执行摘要 / 估值指标 / 技术趋势 / 支撑阻力 / 风险点 / 建议与目标价 等模块。

query = """
Conduct a comprehensive analysis of Apple Inc. (AAPL) for a 6-month horizon.
Include: financials, technical signals, risk assessment, price targets.
"""

仓库示例展示了这类结构化自然语言查询的写法,适合二次封装。


进阶:自定义模型、工具与子代理

Section titled “进阶:自定义模型、工具与子代理”
from langchain_ollama import ChatOllama
ollama_model = ChatOllama(
model="your-preferred-model", # e.g., "llama2", "codellama", "qwen"
temperature=0
)

温度 0 更稳健,适合研究与合规输出。

from langchain.tools import tool
@tool
def custom_analysis_tool(symbol: str) -> str:
"""Do your custom factor/alpha logic here."""
return "alpha signals for " + symbol
tools = [
get_stock_price,
get_financial_statements,
get_technical_indicators,
custom_analysis_tool
]

工具即能力。把你已有的回测、风控、行业库都包成 Tool,代理自然会学会调用。

esg_analyst = {
"name": "esg-analyst",
"description": "Evaluates Environmental, Social, and Governance factors",
"prompt": "You are an ESG specialist..."
}
subagents = [fundamental_analyst, technical_analyst, risk_analyst, esg_analyst]

多子代理并行 是 DeepAgents 的核心玩法之一。


谁该用?

  • 量化/投研团队:想要 快速形成初版研报 的研究助理。
  • 创业者/独立开发者:需要 本地可控 的投研 Demo。
  • 产品经理/教学展示:Gradio 展示层方便路演与内训。

边界与注意

  • yfinance 等免费数据源延迟与口径有限,做实盘需替换为更可靠的数据供应商。
  • 非投资建议,请务必自担风控。仓库也在 README 中明确了免责声明。

延伸阅读(了解“深层代理”到底强在哪)

Section titled “延伸阅读(了解“深层代理”到底强在哪)”
  • Deep Agents 概览:为何“浅层循环调用工具”不够用,深层代理如何引入 规划 / 记忆 / 多代理协作 / VFS 来提升可靠性与纵深。
  • 官方文档:Python / JS 两端提供 Deep Agents 组件与用法示例,便于集成到现有应用。
  • LangChain Agents / LangGraph:如果你要把 DeepAgents 上生产,配合 LangGraph 做可控编排与人类介入更稳。

deepagents 把“做研报”这件事拆成了可复用的代理流水线: 有规划、有分工、有工具、有前端。本地跑一遍,你就能把自己的私有数据、风控逻辑、行业因子拼进去,几天内做出能用的投研助手

你觉得这套 DeepAgents 思路,是不是也能迁移到你们的风控、行业周报或投顾 SOP? 欢迎在评论区聊聊你要落地的场景。

AI 批量生成测评集、练习题库:Synthetic Questions Generation 上手与实战

把一堆文章、手册或数据集,自动“榨”出多风格、高质量的问题,喂给你的 RAG、测评集、练习题库,省时又省钱。工具仓库:mkurman/synthetic-questions-generation。


我们做 RAG、做评测、做题库,最难的是稳定产出大量、够多样、像人写的“好问题”。 这款开源小工具,把多家模型接在一条命令里跑:OpenAI 兼容、Anthropic、Gemini、OpenRouter、Groq、Together、Cerebras、Qwen/DeepInfra、Kimi、Z.ai、Ollama、Chutes、Hugging Face…想换就换。还自带 35+ 问题写作风格,每条随机挑一种,让语料“活”起来。


  • 多模型即插即用:用 --provider + --model 切换供应商/模型,免改代码。
  • 数据源随意:可直接喂 Hugging Face 数据集名、或本地 .jsonl/.json/.parquet 文件;默认读 text 字段。
  • 风格库自带 35+:学术、创意、幽默、实践、批判、哲学、简洁、全面……也可自定义或关闭风格指令。
  • 输出结构化:每题一行 JSONL,带上输入片段、问题序号、生成设置、时间戳,方便评测与回溯。
  • 并发与限速--num-workers--sleep-between-* 控制速率,云上不容易被风控。
  • 示例齐全example.sh、Quickstart、Ollama 本地推理示例一应俱全。
  • 宽松许可:Apache-2.0,商用友好。

Terminal window
python3 -m venv .venv && source .venv/bin/activate
pip install -r requirements.txt

依赖:aiohttpdatasetstqdm

环境变量遵循 <PROVIDER>_API_KEY 规则,例如:

Terminal window
export OPENROUTER_API_KEY=your_api_key_here

支持 OpenAI、Anthropic、OpenRouter、Groq、Together、Cerebras、Qwen、Qwen-DeepInfra、Kimi、Z.ai、Featherless、Chutes、HuggingFace、Gemini; Ollama 本地无需 Key,默认 http://localhost:11434

一条命令跑起来(远程数据集)

Section titled “一条命令跑起来(远程数据集)”
Terminal window
python3 src/main.py mkurman/hindawi-journals-2007-2023 \
--provider openrouter \
--model qwen/qwen3-235b-a22b-2507 \
--output-dir ./data/questions_openrouter \
--start-index 0 --end-index 10 \
--num-questions 5 --text-column text --verbose

这里示例用的是公开的 Hindawi 论文数据集。

本地文件也行(离线/内网更友好)

Section titled “本地文件也行(离线/内网更友好)”
Terminal window
# data/articles.jsonl 每行一个 {"text": "..."}
python3 src/main.py ./data/articles.jsonl \
--provider ollama \
--model hf.co/lmstudio-community/Qwen3-4B-Instruct-2507-GGUF:Q4_K_M \
--output-dir ./data/questions_ollama \
--num-questions 3

把产品文档/FAQ 切成段落,自动生成多风格问题,用于评测召回与答案正确率;每次改召回或重训练后复跑一遍,回归更省心。 实操:--style "analytical and critical thinking,practical and application-focused",输出 JSONL 直接喂到你的评测脚本。行业最佳实践也在强调用合成问答/问题构建评测数据。

教育、企业培训都需要持续出题。 语气控制:面向成人用“formal and academic”,面向新手用“simple and straightforward”,面向公开课用“funny and humorous”。

把工单、SOP、知识库喂进去,自动生成“用户会问啥”。上线前压测问法覆盖度,上线后以题促文补齐文档盲点。

4)行业知识对齐(医疗/金融/科研)

Section titled “4)行业知识对齐(医疗/金融/科研)”

对公开论文、指南生成问题,用于检索触发词扩展面向合规的问法规范。 注:对医疗/金融内容务必加上人工复核与合规审阅环节。

用 CI 定时任务(如 GitHub Actions、CircleCI)每天抓新文本、生成问题、落库,形成“每日 10 问”。


  • 并发--num-workers(配合 --sleep-between-requests/items 别把服务打爆)
  • 采样--shuffle 打乱;--start-index/--end-index 切片大数据集
  • 质控:先跑 --no-style 得到中性问题,再用 --styles-file 扩多样性
  • 字段--text-column 指定文本键;--max-items 限制条数
  • 成本:能本地跑就用 Ollama;云上优先选性价比模型。

示例样式文件 styles_sample.txt(每行一种):

practical and application-focused
casual and conversational
thought-provoking and philosophical
concise and direct
funny and humorous

调用:

Terminal window
python3 src/main.py ./data/articles.jsonl \
--provider openrouter --model qwen/qwen3-235b-a22b-2507 \
--output-dir ./data/out --num-questions 5 \
--styles-file ./styles_sample.txt

为什么这类工具值得用?(外部视角)

Section titled “为什么这类工具值得用?(外部视角)”
  • 大厂与研究社群越来越多用合成数据/问题来补齐长尾、低资源任务,提升微调与评测质量。
  • 云厂商实践表明:对 RAG、问答系统,合成样本能更快形成高覆盖的测评集,并用于持续对齐。

  • 事实性:生成的是“问题”,不是事实;要配套人工抽检去重/去偏
  • 样式泄漏:风格指令可能诱导模型过拟合某表达;建议混合多风格并做 A/B 评测。
  • 版权/合规:输入文本需确认许可,敏感行业要额外审阅。

这就是一个小而美的“问题发动机”。 你给文本,它给你可控、可批量、可追溯的问题集。 无论做 RAG、评测、教学、FAQ,立刻能落地。用起来,你会发现你真正缺的是文本源,不是“问题”。

你会把它用在哪个场景?评论区聊聊。

Claude Code、Cursor、GitHub Copilot 会员费太贵?或许要学抖音了

当前市面上几款炙手可热的 AI 编程辅助工具,如 GitHub CopilotCursorClaude Code,其商业模式主要都走会员订阅路线,每月收费为主。而且这些工具的用户群也在快速增长:

  • GitHub Copilot(微软 GitHub 出品):个人版订阅费约 10 美元/月,提供代码自动完成和聊天解答等功能。自 2021 年推出以来人气飙升,到 2025 年已累计超过 2000 万 用户试用过 Copilot(all-time users)。其中付费用户超过 180 万(截至 2024 年初)。Copilot 在企业界也颇受欢迎——微软 CEO 纳德拉曾透露 90% 的财富100强企业都在使用 Copilot。Copilot 实行订阅收费,微软还将其捆绑进更昂贵的企业套餐。凭借庞大开发者生态,Copilot 的营收增长迅猛,2024 年时纳德拉称其“业务规模已超过微软2018年收购 GitHub 时整个 GitHub 的规模”。

  • Cursor(Anysphere 公司开发):一款基于 VS Code 打造的 AI 代码编辑器,采用基础免费+高级订阅的模式。个人有免费 Hobby 版(带两周Pro试用)和付费 Pro 版($20/月);深度用户还有 $200/月的 Ultra 档,包含更高调用上限和优先新功能。这种定价相当亲民,因此 Cursor 用户量激增。2025 年初曾传出 Cursor 日活跃用户已超 百万,当时年化经常性收入约 $2 亿;短短数月后其 ARR(年度经常性收入)攀升至 5 亿美元——增长速度惊人,可见有大量用户愿意为之付费。不过 Cursor 团队也面临使用成本随用户增长而剧增的问题。据报道,许多 AI 编程公司的毛利率几乎为零甚至为负,因为模型调用成本太高,“所有代码生成产品利润率要么是0,要么为负”。尽管 Cursor 母公司 Anysphere 在 2024 年 6 月已达到 $5 亿 ARR,成为 SaaS 史上最快破亿 ARR 的公司之一,但高昂的算力支出让利润承压,不得不调整定价策略,把超额使用的费用转嫁部分给重度用户。

  • Claude Code(Anthropic 公司推出):Anthropic 将自家高级大模型 Claude 集成进终端和 IDE 中,形成的 AI 编程助手。Claude Code 并未单独收费,而是包含在 Claude.ai 的订阅套餐里:个人 Pro 计划每月 $20(年付折合约 $17/月),订阅即可使用 Claude Code。更高阶还有 Max 计划 $100/月(5倍用量)或 $200/月(20倍用量),提供更大的上下文窗口和更强模型(Claude Opus 4.1)。换言之,Claude Code 走的是“订阅会员送工具”思路,用高价值的编码助手来吸引开发者订阅其 AI 服务。Anthropic 也提供按 API 用量计费的企业方案。Claude Code 主打深度代码理解和跨文件编辑,在专业开发团队中反响不错。不过相较 Copilot 和 Cursor,Claude Code 用户规模数据公开较少,可能因为其主要面向付费用户群体,采用精细化运营而非广撒网策略。

总的来看,这几款AI 编程助手基本都采用订阅盈利,少则每月十几刀,多则上百刀,瞄准的是程序员愿意为效率买单的市场。而免费用户要么无法使用(Copilot 已取消免费试用),要么受限较多(Cursor 免费版有调用次数限制)。这样的商业模式虽然直接,但也意味着不付费就无缘完整功能。有没有可能换个思路,用互联网常见的广告/娱乐变现手段,来为这些 AI 工具开拓新的收益来源呢?在讨论这个创意前,我们先看看短视频、直播、游戏等领域是如何“吸金”的。

短视频、直播、广告:互联网吸金的黄金套路

Section titled “短视频、直播、广告:互联网吸金的黄金套路”

在互联网行业,用户注意力就是硬通货。短视频平台、在线直播、广告分发和手游等,都是通过长时间牢牢抓住用户视线来实现商业价值的典型代表:

  • 短视频(抖音/Douyin、TikTok):通过精准算法推荐,让用户刷视频刷到停不下来,从而穿插信息流广告、高效变现。以抖音为例,截止 2024 年其月活用户已达 10 亿(仅中国区)。用户平均每天花 110 分钟 在抖音上,几乎相当于刷完一部电影!用户停留时间长,广告就有充足展示机会。抖音的广告收入水涨船高,2024 年预计将达到 300 亿美元(含开屏、信息流、贴纸等各种形式)。此外,抖音融合了直播带货、电商导流等模式,拓宽了变现场景——据统计,有超过 40% 的日活用户会观看或参与抖音上的直播带货。可以说短视频平台通过算法+内容极大提升了用户黏性,用海量用户时长去换取高额广告营收。

  • 视频网站(YouTube):作为传统长视频平台,YouTube 的主要收入也来自广告插播和创作者分成。YouTube 拥有全球 24.9 亿月活跃用户,2023 年其广告收入高达 310 亿美元。平均每位用户每天花将近 49 分钟 看 YouTube。平台通过前贴片、中插广告和推荐页广告等形式获利,再与内容创作者分成。这种模式验证了“只要用户看得久,就不怕广告卖不出”的逻辑。近年来 YouTube 也引入 Shorts 短视频和直播功能,进一步增加用户停留时间,并丰富广告库存。可以说,视频平台用海量内容留住用户,再通过广告变现,是成熟且高效的商业逻辑

  • 直播平台(Twitch 等):直播通过实时互动激发用户热情,除了广告外,还促成用户打赏和订阅。Amazon 旗下游戏直播平台 Twitch 2024 年用户总观看时长达 208 亿小时之巨,全球月活用户约 2.4 亿,日活约 3500 万。Twitch 的收入一半来自广告(主播直播间插播广告,平台与主播分成),一半来自用户订阅和礼物打赏。2024 年 Twitch 带来约 18 亿美元营收。虽然相较短视频用户基数小,但铁杆观众愿意花钱支持喜欢的主播,ARPU(每用户收入)更高。直播变现的核心在于强社群氛围:实时弹幕、粉丝与主播的情感连接,都提高了用户付费意愿。这种模式证明,即使用户规模不像短视频那么大众化,但只要粘性强、互动深,也能产生可观收入。

  • 手游与互动游戏:很多游戏尤其是免费手游,通过内购和广告双管齐下变现。一方面,少数付费玩家(“氪金大佬”)贡献内购流水,另一方面,大量非付费玩家通过观看广告来换取游戏内奖励,成为广告变现对象。比如一些休闲手游会设计“看30秒广告领取金币”的机制,或是在关卡加载时插入广告。这种**“用等待时间换收益”的套路很常见。据统计,2024 年全球手游市场收入超过 1110 亿美元,其中广告收入占相当比例。谷歌甚至推出了App Open Ads** 专门用于在 App 加载画面展示广告,让开发者利用用户等待的几秒钟赚钱。游戏行业可谓深谙此道:把碎片时间变现,不浪费任何一次用户停留在屏幕前的机会。

总结来看,无论短视频也好、直播也好,背后商业逻辑都是利用优秀的内容或互动体验,把用户尽可能长地留在平台上,然后通过广告或增值服务把用户注意力变现。这种逻辑能否移植到 AI 编程助手上呢?也就是说,我们能否设想这样一种模式:程序员在使用 AI 写代码的空档,也能刷到定制的短视频或互动内容,从而用娱乐广告收入替代部分会员费?听上去有点天马行空,但不妨大胆脑洞一下。

AI 写代码时也能刷视频?可行性分析

Section titled “AI 写代码时也能刷视频?可行性分析”

试想一个典型场景:程序员小张在 VS Code 里使用 AI 助手生成代码,有时需要等待几秒钟模型出结果。这些几秒钟的空档,现在往往就是盯着屏幕上“Thinking…”的光标发呆。如果能在这空隙给小张一点有趣的内容看看,岂不是把碎片时间利用起来了?

从技术上讲,这并非不可行。AI 编程工具通常以插件或独立应用形式存在,例如 Copilot 是 IDE 插件,Cursor 是基于 VS Code 的独立编辑器,Claude Code 可以在终端/IDE里运行。这些工具界面完全可以预留一个小窗,在 AI 处理请求时推送内容。类似网页加载时弹出的 tips,或者手游加载画面的插图,只不过这里可以换成个性化推送的视频/信息

关键在于,推送什么内容才能既吸引人又不干扰工作?借鉴短视频和内容推荐的经验,理想的做法是精准匹配用户兴趣。AI 助手本身对用户代码和上下文有一定了解,如果经过用户授权,也许可以基于编码主题猜测用户可能感兴趣的信息流。例如:

  • 当用户在写 Python 代码跑单元测试时,小窗里推送一个 “3 个提高测试效率的小技巧” 的短视频,30 秒看完,刚好吻合用户当前任务。
  • 用户调试报错的空闲,推送一条 程序员趣味梗 短视频或搞笑 Meme 动图,让用户会心一笑缓解挫折感。
  • 或者根据用户平时的偏好(比如他经常看前端技术文章),推荐相关技术 UP 主的 直播切片 或新品发布会片段,让用户获取业界动态。

当然,实现这种智能推荐需要构建内容推荐算法。可以参考抖音那样的多层次机器学习模型,根据用户的行为快速迭代推荐。AI 编程助手本身就可以调用大模型来理解代码语境,也可以结合用户设定的兴趣标签来筛选内容。比如让用户在设置里勾选喜欢的内容类型:“技术干货 / 科技新闻 / 搞笑段子 / 游戏直播 / …”,然后助手就按这些喜好来选取推送。

更重要的是把控频率和形式。程序员毕竟需要专注编程,不能让弹出的内容喧宾夺主、喧嚣吵闹。理想的设计是 嵌入式 的:比如编辑器侧边栏出现一个静音播放的小视频窗口,或输出区显示一条资讯流卡片。在 AI 响应生成后,这内容可以自动收起,不打断用户思路。谷歌的 App Open Ads 强调要选择自然的时机(如加载画面)展示广告,避免干扰核心体验。类比过来,AI 助手推送内容也应仅限模型运算等待或代码编译运行等“自然暂停”时,并且允许用户一键关闭。

至于盈利模式,这些推送内容完全可以包含广告元素。例如推送的短视频里有厂商推广的新开发者工具(以内容营销的方式呈现),或者在直播嵌入商品链接(用户也许正巧需要买本技术书/报个课)。Bing Chat 已经开始尝试在聊天答案中嵌入广告链接,微软表示会将广告收入与内容提供方分成。这说明将广告融入 AI 回答/界面是可行的商业尝试。在编码助手场景中,广告可以更加隐性和契合:比如当用户用免费版 AI 助手写前端代码,小窗里推荐一个“更高效的前端调试工具”(实际上是广告合作的推广),用户感兴趣就点击了解,不感兴趣就略过,体验上和刷抖音看到广告差不多。

这样的“AI 编程 + 娱乐广告”模式目前来看还没有直接的成熟案例,但相关的探索倒是有迹可循:

  • 开发者社区的广告尝试:传统编程问答网站如 Stack Overflow 早年就靠页面广告和企业招聘广告盈利。尽管那不是 AI 工具,但说明开发者并非完全抗拒看到广告,前提是广告内容相关度高、不影响获取答案。同理,如果 AI 助手推送的是开发者相关的资讯或产品(比如云服务促销、技术大会直播预告),用户可能会乐于接受,甚至觉得顺带涨姿势。

  • AI 聊天与广告结合:微软新版必应(Bing Chat)已在 GPT-4 驱动的聊天答案里插入赞助链接,有时用户提出购物类询问,回答会附上商品广告卡片。这等于把搜索广告直接嵌入对话。虽然代码助手场景和搜索不同,但 Bing 的实践证明大模型回答和商业广告并行并非禁区。关键是透明标注和相关性,让用户清楚哪些是广告,并确保广告确实和他的需求契合。

  • AI 工具的扩展窗口:一些编程工具其实已经有资讯推送的苗头。例如 JetBrains IDE 每次启动时会弹出“Tip of the Day”(每日技巧),VS Code 欢迎页也常有推荐文章或更新公告。这些都是在工具界面内嵌信息内容的案例,只不过目前还没有商业化。如果把这些窗口利用起来做成可定制的内容流,从技术上是顺理成章的。

  • 免费模式与用户规模:目前市面上也有少数 AI 编程工具走免费路线吸引用户,再谋求别的变现。比如开源的 Codeium 对个人免费,用数据提升模型、后续针对企业收费。但还没有出现“免费+广告”的明确案例。一方面,开发者用户量相对大众应用小很多,靠广告变现能否覆盖高昂算力成本是疑问。另一方面,程序员用户对产品纯净度要求更高一些,贸然加广告可能引发反感。所以大部分创业公司还是选择直接收会员费或寻找企业买单,而没有优先考虑广告模式。

  • 国内动向:值得一提的是,国内科技巨头也在推进 AI 编码助手,如阿里的“通义灵码”等。据阿里2025年财报披露,通义灵码(代码助手)已经实现了强劲的收入增长。不过它主要面向企业客户,是 B 端付费模式的成功例子,和我们讨论的C端娱乐广告思路有所不同。腾讯则表示 AI 技术已为其效果广告和游戏业务带来贡献,间接证明 AI 和广告的结合潜力巨大。

总的来看,目前还没有直接把编程助手和娱乐内容融合变现的产品,但从搜索聊天到应用加载广告,再到各种免费增值模式的成功,可以找到许多可以借鉴的要素。如果哪天有团队敢于打破常规,推出这样一款“既能写代码又能刷视频”的跨界产品,倒真有可能开辟出一片新蓝海。

展望未来:AI 编程助手的娱乐化之路

Section titled “展望未来:AI 编程助手的娱乐化之路”

设想一下未来的开发场景:你坐在电脑前写代码,AI 小助手在一旁帮助调试。编译的空当,它贴心地推送一段 “今日编程笑话” 短视频给你解闷,或者弹出一个 AR 实景黑客小游戏 供你玩几秒钟放松大脑。这听起来也许有些离谱,但并非不可能实现。随着新一代开发者逐渐习惯多任务并行和碎片化信息流,这种工作与娱乐交织的模式可能比我们想象中更受欢迎。

从商业角度看,“AI 编程+娱乐广告”模式有望带来多赢

  • 对开发者个人而言,入门门槛降低——也许不再需要付昂贵订阅费,就能免费使用强大的代码 AI 工具,只需忍受一些恰到好处的内容推送作为交换。同样的逻辑已经在移动应用中被用户所接受(比如很多 App 提供“看广告解锁高级功能”选项)。

  • 对平台厂商而言,可以拓宽盈利来源,分摊算力成本。当下 AI 编程助手盈利难,很大程度在于每多服务一个用户就多一份算力支出,不像传统软件那样扩张不增加边际成本。引入广告变现后,哪怕免费用户本身不付费,也能通过其观看广告为平台带来收入,从而补贴模型调用成本,缓解“用户越多亏越多”的窘境。这有望使商业模式更加可持续。

  • 对广告主来说,则多了一个触达程序员群体的新渠道。程序员作为高消费力、高决策影响力的人群,一直是很多B2B和技术产品广告主想渗透但不易触达的圈层。如果有编程场景内的原生广告位,可以推广云服务、开发工具、IT图书课程等垂直产品,广告转化率可能比在抖音上乱投要高。尤其是结合AI对用户代码意图的理解,广告精准度会更上一层楼(当然前提是隐私许可和谨慎平衡,否则容易引发反感)。

当然,要走通这条路也面临不少挑战。首先,如何不影响用户体验是最大的考验。程序员需要长时间专注思考,频繁弹出娱乐内容会打断思路。如果内容质量不高或无关痛痒,用户宁可关掉助手也不愿被打扰。因此内容推荐必须足够个性化、有价值,最好还能起到提升工作灵感的作用(例如推荐相关技术解决方案的视频教程,比纯商业广告更容易被接受)。同时需要给用户完全的控制权,比如设置“专注模式”时不推送任何内容,或者允许付费关闭广告(类似很多应用的“移除广告专业版”)。

其次,规模效应也是问题。全球开发者数量虽多,但远不如娱乐应用用户基数广。要依靠广告盈利,每用户广告收入必须能覆盖模型推理成本,这要求在提升广告效果和降低算力开销上双管齐下。一种可能是引入游戏化元素刺激使用时长:例如做一些编码闯关小游戏,用户玩的过程中既训练模型又曝光更多广告,一举多得。但这些想法都有待实践验证其可行性。

最后,从趋势上看,AI 工具娱乐化、广告化确实是可以期待的方向之一。就像办公软件里加入游戏听上去匪夷所思,但 Microsoft Teams 里已经内置了休闲小游戏供同事会议间隙放松,证明传统生产力工具也在尝试引入娱乐元素。同理,未来的 AI 编程助手未必是冷冰冰的工具,也可能变得有趣、会卖萌,甚至自带“段子手”属性。当90后、00后成为开发主力,他们或许更乐见工作变得像刷微博一样“有梗”。一旦用户心态转变,商业模式的创新就有了土壤。

小结与脑洞:AI 编程助手从收费走向免费+广告,是一次有趣的跨界融合想象。它代表了一种未来可能性:工作和娱乐不再泾渭分明,而是通过AI的桥梁自然融合。也许再过几年,当你用 AI 写代码时,它会在你调试卡壳时给你放一段编程教学的直播回放,在你构建项目时让你玩个像素风的码农跳跃小游戏。那时的编程体验,既高效又不失乐趣, coding 不再枯燥,bug 也多了几分戏谑的调剂。

当然,这一切目前还只是大胆的畅想。但正是这些天马行空的创意,指引着可能的下一步方向。毕竟,在 AI 时代的世界里,想象力往往是最好的生产力。让我们拭目以待,也许下一个颠覆行业的商业模式,就将在这样的脑洞中诞生。

用塞尔达音效,让 Claude Code 叫你回来

Vibe Coding 最大痛点:等 AI 跑完。 开个长任务,去忙别的,一回头早过点儿了。声音提醒就成了刚需。

今天这款小玩具把效率+乐趣都拉满:zelda-claude-code。它把塞尔达的提示音塞进 Claude Code,任务完成、连胜、成就解锁,都有「叮」的一下,很带感。


zelda-claude-code 是一个给 Claude Code 加音效与成就系统的 npm 包:

  • 成功/失败、连击、成就、会话开始/结束……都有不同音效;
  • 内置 统计面板:成功率、连胜、最强连击、最常用工具;
  • 直接在 Claude Code 里用 @zelda 系列命令调音量、开关提示、看数据。

此外,Claude Code 本身支持 Hook/通知,可以在“回复结束/需要你操作/工具完成”等时机触发你自己的脚本,这也是这类音效插件能无缝工作的底层能力。


  • 开箱即响:一行安装,重启 Claude Code 即可生效。@zelda help 就能看到菜单。
  • 不打扰又不失陪:成功一声、出错一声,无需盯屏。忙别的也能被“叫回来”。(Claude Code 也支持终端响铃/通知通道,这是官方路径。)
  • 可玩性:连击(3/5/10/20/50…)、成就(完美零错等),把枯燥的等候变成“打怪”。
  • 跨平台:macOS / Linux / Windows / WSL 都支持,并给出各平台播放器检测/排错建议。
  • 隐私友好:数据本地存储(~/.zelda/),不出网

先确保已安装 Claude Code(Node.js 18+)→ 再装 Zelda 插件。

Terminal window
# 1) 安装 Claude Code(官方)
npm install -g @anthropic-ai/claude-code
# 2) 安装 Zelda 音效(社区)
npm install -g zelda-claude-code@latest
# 3) 重启 Claude Code(很重要)
exit
# 重新进入项目目录再运行
claude
# 4) 查看帮助
@zelda help

上述 Zelda 包来自 npm,文档/源码在 GitHub。

若你更喜欢“纯官方”做法,也可直接把通知通道切到终端响铃claude config set --global preferredNotifChannel terminal_bell(简单一声“叮”)。


  • 长回合/深度规划:比如大仓库重构、全链路 CI 调试,AI 一停就响,不再“守株待屏”。
  • 多任务并行:一边写评审,一边让 Claude Code 改代码;声音到→切回确认。
  • 团队直播/结对:连击与成就让协作更有气氛;失败音效能提醒“哪里刚炸过”。
  • 跨设备提醒:想把通知推到手机/手表?可以用社区脚本/自动化把 Claude 的提醒转发到 iPhone/Watch。

@zelda stats # 查看本次会话+历史数据
@zelda achievements # 查看成就进度
@zelda combo # 看当前连击
@zelda config volume 60 # 调整音量(0~100)
@zelda config sounds.combo false # 关连击音
@zelda config notifications.achievements true # 开成就弹窗

所有命令均在 Claude Code 里直接使用。


对比:三种“有声提醒”的打开方式

Section titled “对比:三种“有声提醒”的打开方式”
方式安装成本能力适合谁备注
终端响铃(官方通道)极低任务完成“叮”一下只要最简提醒preferredNotifChannel terminal_bell
claude-sounds 脚本通过 Hook 播放多种音效喜欢自己折腾Shell 脚本+Hook,简单好改。
zelda-claude-code音效+连击+成就+统计想兼顾效率与乐趣npm 一键装,命令化配置。

  • 自定义音色:放入 sounds/ 目录,命名 success.wav / error.wav / achievement.wav … 即可替换。

  • 声音放不出来?

    • @zelda config volume 100
    • macOS 检查 afplay,Linux 检查 aplay/paplay,Windows 用 PowerShell 播放器;
    • 重新运行 ./demo_sounds.sh 试音。
  • Hook/通知点更多玩法:Claude Code 官方支持 Notification/Stop/PostToolUse 等多种 Hook,能在“结束时”“工具完成后”“需要你确认时”触发逻辑(比如记录工时、发桌面通知、跑格式化)。


  • 这是 第三方社区包,注意版本与安全;遇到问题随时 exit 重启。
  • README 提醒:Zelda 为任天堂商标,请合法获取素材。
  • 不想高频打扰?把音量降到 30~50,只保留关键事件;或用官方响铃通道,最简不打扰。

有声提醒,省回头工;有趣反馈,稳心理流。 让 Claude Code 不只是更快,而是更「有感觉」。今天就装上试试,下一次它响的时候,你可能正好写完一段好代码。

你觉得这类“音效+成就”的工作化游戏化能不能提升专注?你会用吗?

生成式 AI 的胜利: 80/20 法则和 用“加法 + 除法”预测复杂世界

生成式 AI 的大胜利,底层就是两件小事:加法和除法。 再配上一个“江湖规矩”:80/20


我们常把 AI 想得很玄。 可把一台主流生成模型拆开看,最常见的动作其实很“土”:加权求和(加法)标准化(除法)残差相加(加法)。注意力就是加权求和,softmax 和归一化里有除法;层归一化要除以标准差;残差网络把输入直接相加给输出。这些“搬砖式”运算,居然拼出今天的神迹。

为什么这么朴素有效? 答案指向两个词:低维流形 + 80/20。现实世界看似高维混沌,可真实发生的模式常常挤在少数“主路”上;抓住这 20% 的主路,就能解释 80% 的现象。


注意力 = 加权求和 + 归一化 Transformer 里,注意力输出是对 V 的加权求和;权重由 softmax(QK^T / √d_k) 给出,里面还藏着一个除法(缩放)。这就是“看谁像我 → 给多少分 → 加起来”。

层归一化 = 减均值 + 除标准差 LayerNorm 先算均值和方差,再除以标准差,让特征分布稳定,训练更顺。

残差连接 = 直接相加 ResNet 的“捷径”把输入原样相加到输出,信息不丢,梯度好传,深网才堆得上去。

扩散模型 = 加噪 / 去噪的循环 训练时逐步加高斯噪声;生成时反向去噪,本质也是线性组合和归一化的套路。

朴素得离谱?对。 但当数据躺在低维主路上,这些线性/近线性的“加减乘除”就足够把主路勾出来。


二、世界为什么给“简单方法”面子:低维流形 + 80/20

Section titled “二、世界为什么给“简单方法”面子:低维流形 + 80/20”

流形假设说,自然数据虽然处在高维空间,有效样本集中在低维流形上。很多研究发现,深网里学到的表示,其内在维度远小于表面维度——模型其实在压缩世界。

这就把80/20引了进来: 当关键结构只占“少数维”,抓住 20% 关键特征,就能复现 80% 现象。这不是玄学,是幂律/帕累托型在自然与人类系统中的常客。

还有一条行业共识:神经网络的“尺度律”表明,只要堆模型、数 据、算力,损失会按幂律稳定下降。简单架构 + 大规模“加减乘除”,就能稳步吃掉更复杂的模式。

我们可以用一个可视化比喻来理解这一点:想象你站在一片巨大的草原(代表高维空间),理论上你可以朝任何方向走,但实际上绝大多数人都只走在几条清晰的小径上。每个人的脚步不是随机的,而是集体踩出了几条被自然选择出的路径。这些小径就是“自然偏好的流形”。现实世界中的天气变化、蛋白折叠、图像生成都类似——虽然可能性空间极大,但真实发生的情境都压缩在某些低维区域上。


三、一个硬核证据:AlphaFold 如何“采集流形”

Section titled “三、一个硬核证据:AlphaFold 如何“采集流形””

蛋白理论构象空间大到夸张,10^300 级别,暴力穷举根本不可能。可自然界却能在毫秒级折叠——说明真实折叠路径被压在一条低维主路上。AlphaFold 正是从海量序列与结构样本里,学到了这条主路,于是直接在“主路空间”定位最可能的结构。

升级的 AlphaFold 3 更是把扩散架构塞进来,靠“加噪/去噪”的可微流程,统一预测复合体、离子、小分子……还是那种简单运算的流水线,服务于低维结构

有人觉得这像“从万花筒图案反推几片塑料叶子和镜子”。 说白了,就是把复杂的表象压缩成少量稳定结构


四、工程落地:用 80/20 把生成式工作流做薄做厚

Section titled “四、工程落地:用 80/20 把生成式工作流做薄做厚”

1)数据侧:做“主路样本”优先级

  • 复盘 30 天真实任务,统计最高频的 Top 20% 场景/风格,只给它们做高质样本与模板。
  • 评测集也按帕累托做覆盖,“先把 80% 常态拉满,再逐步做长尾”。(配合帕累托图更直观)

2)提示词侧:把“加法/除法”具象化

  • 加法:提供明确的加权要素(目的、受众、风格、长度、禁词),每个要素配例子=给注意力喂“权重”。
  • 除法规范与约束就是“除法”——字数上限、结构模板、术语表、评分表,都是在“缩放/归一”模型输出。
  • 套路:少量高质量 few-shot > 大堆模糊案例(更像给模型一把“主路”锚点)。

3)检索/RAG:把库做“瘦身”

  • 只进库权重最高的 20% 文档(权威、最新、覆盖面大)。
  • 每次检索明确 top-k 小而准,并强制引用位置,减少“跑野路”。

4)评测与上线:两段式

  • 阶段 A:只打 80% 高频主路的可靠性(自动评分 + 少量人工复核)。
  • 阶段 B:再切长尾,按“影响 × 频率”排序迭代。

简单很强,但不是万能。

  • 换域/长尾:模型学到的是“这条主路”,越过分布(OOD)就会跪,需要新数据/新约束来重铺主路。蛋白也一样,某些类别或无序区域就难。
  • 幂律不是法律:80/20 是常见经验规律,不要机械套用。
  • “信息本体论”仍在争论:把物理看成“信息优先”的观点很有吸引力,但学界也有反驳声音,别当成定理。

如果你把生成式 AI 看成一支加法/除法的施工队,再配一张低维主路图,很多难题会突然变简单。 先压缩,再调度;先 20%,后 80%。 这就是今天的笨办法,也是最稳的聪明。

你觉得呢? 在你的项目里,哪 20% 的场景最该被“做厚”?欢迎在评论区聊聊。


配图(插画风|2:1|英文文案,不含中文)

Section titled “配图(插画风|2:1|英文文案,不含中文)”

封面图 Prompt “An illustration of a simple calculator overlaying a complex landscape of curves, with plus and divide symbols guiding a path along a highlighted low-dimensional ridge; clean minimal lines, modern pastel palette, 2:1, text-free.”

章节配图 1(注意力 = 加权求和) “An infographic-style illustration of vectors Q, K, V flowing into a funnel labeled ‘weighted sum’, tiny bars becoming a smooth distribution; flat pastel, minimal, 2:1, text-free.”

章节配图 2(低维流形与 80/20) “Wide terrain with many faint paths but one bright main trail carrying most travelers; a small segment controls most traffic; minimalist pastel, 2:1, text-free.”

章节配图 3(AlphaFold 主路) “A ribbon protein folding along a glowing path through a vast space of faint possibilities; denoise arrows pull it onto a narrow manifold; pastel vector, 2:1, text-free.”


  1. 中文:用“加法 + 除法”征服复杂:生成式 AI 的 80/20 真相 English: Conquering Complexity with Add & Divide: The 80/20 Truth of Generative AI 繁體:用「加法+除法」征服複雜:生成式 AI 的 80/20 真相 日本語:足し算と割り算で複雑を制す:生成 AI の 80/20 の真実 Français : Vaincre la complexité par l’addition et la division : la vérité 80/20 de l’IA générative Español: Vencer la complejidad con sumar y dividir: la verdad 80/20 de la IA generativa Português: Vencer a complexidade com somar e dividir: a verdade 80/20 da IA generativa Slug:add-divide-80-20-generative-ai

  2. 中文:低维流形的捷径:为什么简单算子撑起大模型 English: The Manifold Shortcut: Why Simple Operators Power Giant Models 繁體:低維流形的捷徑:為何簡單算子撐起大模型 日本語:低次元多様体の近道:なぜ単純演算が巨大モデルを支えるのか Français : Le raccourci du sous-espace : pourquoi des opérateurs simples portent les grands modèles Español: Atajo del Colecto: por qué operadores simples sostienen modelos gigantes Português: Atalho do Variedade: por que operadores simples sustentam grandes modelos Slug:manifold-shortcut-simple-ops

  3. 中文:先抓 20%,再拿 80%:你的生成式工作流该这么做 English: Grab the 20%, Win the 80%: A Practical Workflow for GenAI 繁體:先抓 20%,再拿 80%:你的生成式工作流該這麼做 日本語:まず 20% を掴み、80% を制す:生成 AI ワークフロー実践 Français : Cibler les 20 %, gagner les 80 % : workflow pratique pour l’IA générative Español: Toma el 20%, gana el 80%: flujo de trabajo práctico para GenAI Português: Capture 20%, conquiste 80%: fluxo prático para GenAI Slug:genai-workflow-80-20


  1. “越研究越踏实:注意力=加权求和,LayerNorm=除标准差。加法+除法+低维主路,就够让模型‘装懂’世界 80% 了。”
  2. “别再想一口气吃掉全空间了,先把 20% 高频主路啃透。生成式工作流也要帕累托!”
  3. “AlphaFold 的启发很直接:别乱跑,找主路。加噪/去噪也能走出大道,这就是工程的浪漫。”

需要我把第 4 部分的“落地清单”扩成可操作 SOP 吗? 我可以按你的业务场景(代码、内容、客服、推荐)分别给出示例和评测表。

Claude Code Max 200 美元打 6.6 折,尼日利亚区 iOS 苹果账号的秘密

iOS 苹果账号的国家/地区切换到尼日利亚。 结果很神奇:Claude Max(含 Claude Code)订阅成本,直接优惠接近6.6 折

不是玄学,是区域定价在发挥作用。


方案官网价 (USD)美区 iOS (USD)尼日利亚 iOS (NGN)尼日利亚 ≈ (USD)相比美区 iOS 优惠相比官网价 优惠
Pro$20$20₦14,900$9.68$10.32 (-51.6%)$10.32 (-51.6%)
Max (5x)$100$124.99₦100,000$64.94$60.05 (-48.0%)$35.06 (-35.1%)
Max (20x)$200$249.99₦200,000$129.87$120.12 (-48.0%)$70.13 (-35.1%)
  • 官网价:Max 起步 $100/月;还有 $200 的 20x 档。
  • 美区 iOS 内购:Max 5x 显示 $124.99/月,Max 20x $249.99/月
  • 尼日利亚区 iOS 内购:Max 5x ₦100,000/月,Max 20x ₦200,000/月;Pro ₦14,900
  • 汇率折算:₦100,000 ≈ $65.3(2025-08-16 中间价附近)。

结论

  • 相比美区 iOS $124.99,省约 48%
  • 相比官网 $100,省约 35%。 (汇率会波动,实际以你付款当日为准。)

可以。一个订阅打通 Web / 桌面 / 移动 + Claude Code(终端)。Anthropic 的官方支持写得很清楚:Pro/Max 现在是统一订阅,终端里的 Claude Code 也能用。

这也是选择在 iOS 端开通、然后在 Mac 终端里畅用 Claude Code 的原因。


两件事叠加:

  1. App Store 的区域定价(本地货币、当地税费);
  2. 开发者自定价 + 汇率。 结果就是你在不同国家/地区看到的内购数字差很大

  • 更改国家/地区:Apple 要求提供新地区的有效支付方式;按官方流程操作。
  • 长期与居住地不一致,有风控/扣款失败风险;价格、税费、汇率也会变动。
  • 订阅是否跨平台生效以官方规则为准(Claude 目前是统一订阅)。

建议:遵循 Apple 与 Anthropic 的使用条款。本文仅做信息差观察与价格对比,不构成规避政策的建议。


  • 天天写代码、常跑 Agent 的同学:Max 的更高用量更稳。
  • 希望控制成本又不想降模型规格的团队/个人。
  • 经常在移动端开通、桌面/终端使用的一体化工作流用户。

  • Max 用在 Claude Code 的复杂重构 / 大仓扫描 / 长流程代理,容错空间更大。
  • iOS 开通后,Mac 终端里直接跑 Claude Code,免去额外绑定,体验顺滑。
  • 近期开了不少“长流程”,注意:行业内对滥用的限额在收紧(例如周限额/防转售)。理性使用,别把订阅当作“算力矿机”。

  1. 了解目标地区内购价汇率,评估是否值得。
  2. 按 Apple 支持文档规范变更地区,并确保合法支付方式
  3. 开通后在 Web/桌面/终端统一使用,同步查看用量与续费。

区域定价 + 汇率,给了重度开发者一个省钱但不降配的选项。 能否长期稳定,取决于政策、汇率、风控三件事。 理性评估、遵守条款,你就能把钱真真切切省下来。

你会为了省 35%~48% 改地区吗?你有什么实操心得?评论区聊聊。

14 篇就够了:Anthropic 提示工程系列到底牛在哪?

每篇 3 分钟,快速上手。 这套“短小精悍”的提示工程系列,把写好 Prompt 变成一套可抄作业的套路。 适合产品、工程、运营到创业者,当天学、当天用、当天见效


1)它不是讲概念,是教你“怎么写” 官方《Prompt Engineering Overview》把“什么问题该用 Prompt 解决、什么该换模型/改架构”说清楚,并给出可直接复制的结构化写法。

2)边学边做的互动教程 Anthropic 的互动式课程把技巧拆成短章:清晰表达、角色设定、数据与指令分离、输出格式、思考步骤、示例驱动……每章都配练习,几分钟一节,效率很高

3)对 Claude 4 的“对症下药” 面向 Opus 4.1 / Sonnet 4 的最佳实践,讲清楚这些模型更听话的触发方式:如何给出目标、约束、风格,怎样让它稳定按模板吐出结果。

4)有“工程味”的进阶内容 做 Agent、多工具协作时怎么靠 Prompt 降噪、控流程、稳行为?Anthropic 的多 Agent 实战文章把团队踩坑都写了,适合落地复杂工作流。

5)降本提速有招 长提示要钱又慢?用 Prompt Caching,把公共上下文缓存起来,长提示成本降到原来的 10% 左右、延迟最多能砍 85%


① 清楚到“像带新同事” 把目标、产出格式、读者、评判标准写明白。要点用清单列出来,别靠猜。

② 角色设定要具体 “你是 B 端产品经理,给老板写周报,200 字内,结尾给 3 项行动”。角色越具体,越稳。

③ 指令和数据分开 用分隔符把“要求”和“素材”隔开,Claude 会更少误读。

④ 多给好例子 1–3 个高质量示例,能瞬间拉齐风格与结构,比空讲要求有效。

⑤ 让它有“思考空间” 要求“逐步推理/先想后答/给出依据”,复杂任务的正确率会明显上来。


A. 日报/周报模板(稳定结构)

你是【角色】。请输出【受众】可读的【文体】。
目标:{业务目标/关键结果}
约束:{字数上限/语气/禁止内容}
格式:
- 本周进展(3 点)
- 风险与阻碍(最多 2 点)
- 下周计划(3 条)
示例:
- 【给 1 个你的好例子】
素材:
<<<DATA
【贴资料】
DATA
>>>

用例:项目周报、销售复盘、产品例会记录。

B. 代码改造提案(Claude Code 友好)

角色:资深工程师,给可执行的重构方案。
产出:Markdown 提案 + 风险评估 + 粗粒度任务清单。
必须:说明收益(性能/可维护性/成本),列出替代方案。
边界:不直接写代码,先方案评审通过再开工。

适配 Claude Code 的工作流,先“规划”,再“执行”,减少反复。

C. 多 Agent 协作(控住“内耗”)

总控目标:{清晰 KPI}
子角色:
- 研究员:搜集 5 个一手来源 + 可信度评级。
- 策划:在限制{预算/时间}内给 2 套可执行方案。
- 评审:只做打分与取舍,禁止新增任务。
协议:
- 任何代理不得创建新子任务,超出配额直接请求人工确认。
- 所有输出走同一结构化模板。

解决“无限分裂/互相打断”的老毛病。


3 分钟上手路线(建议打卡顺序)

Section titled “3 分钟上手路线(建议打卡顺序)”
  1. 读《Overview》,照着它的目标–受众–格式三件套写一个 Prompt。
  2. 打开互动教程 1–3 章,练“清晰表达/角色/数据分离”。
  3. 查“Claude 4 Best Practices”,把输出格式和示例补齐。
  4. 做团队工作流?看“多 Agent 提示原则”,给协作立规矩。
  5. 长提示、慢?上 Prompt Caching,降本提速。

  • 产品/运营:需求拆解、复盘、PRD 嵌套模板,一次规范,处处复用
  • 工程团队:代码评审、重构提案、Agent 工作流治理,稳态输出
  • 创业者:营销物料、多渠道文案、媒体 Pitch,风格统一可规模化

这套系列的价值在于:把“玄学”变“手册”。 用清晰模板、角色设定、示例驱动、可验证输出,加上工程化的协作与缓存手段,立刻可用、可复制、可规模化


  • 你现在就能把哪份日常文档,换成结构化 Prompt?
  • 你团队里哪一步最耗时,能用 Prompt Caching 省钱省时?
  • 多 Agent 协作,你最想先制定哪条“交通规则”?

评论区等你来聊~

Claude Code 免费使用 Kiro 的 claude-sonnet-4-20250514 模型

本地 Docker 起 Ki2API(OpenAI 兼容网关),再用 Claude Code Router(CCR) 启动 Claude Code,路由到 claude-sonnet-4-20250514。Claude Code 几乎零改动,直接吃到 Kiro 的 Sonnet 4 的推理与编码能力。

Claude Code -> Claude Code Router -> Ki2API -> Kiro (claude-sonnet-4-20250514)


  • OpenAI 形状的接口:Ki2API 暴露 /v1/models/v1/chat/completions,支持 SSE 流式,默认端口 8989,固定开发用密钥 ki2api-key-2024。对现有 SDK 友好。
  • CCR 原生支持多 Provider 路由:配置文件放在 ~/.claude-code-router/config.json,可把 Claude Code 的不同场景(默认、think、longContext…)路由到任意 OpenAI 兼容后端。命令行直接 ccr code 启动。
  • 模型稳定可用:Kiro 提供的 Claude Sonnet 4 是 Anthropic 新一代主力模型,强调 更强推理、编码与效率,可在多云与 API 中使用。

Terminal window
git clone https://github.com/zhalice2011/ki2api
cd ki2api
docker-compose up -d
# 默认 http://localhost:8989

Ki2API 会自动读本机 ~/.aws/sso/cache/kiro-auth-token.json(Windows 在 %USERPROFILE%\.aws\sso\cache\),并带自动刷新逻辑。也可用环境变量 KIRO_ACCESS_TOKENKIRO_REFRESH_TOKEN 显式传入。

2)装 Claude Code 和 Claude Code Router

Section titled “2)装 Claude Code 和 Claude Code Router”
Terminal window
npm install -g @anthropic-ai/claude-code # 已安装可跳过
npm install -g @musistudio/claude-code-router

CCR 文档同时说明了安装、配置目录与路由能力。

把下方 完整配置 保存到:~/.claude-code-router/config.json,随后执行:

{
"LOG": false,
"OPENAI_API_KEY": "",
"OPENAI_BASE_URL": "",
"OPENAI_MODEL": "",
"Providers": [
{
"name": "openai",
"api_base_url": "http://localhost:8989/v1/chat/completions",
"api_key": "ki2api-key-2024",
"models": ["claude-sonnet-4-20250514"]
}
],
"Router": {
"default": "openai,claude-sonnet-4-20250514",
"background": "openai,claude-sonnet-4-20250514",
"think": "openai,claude-sonnet-4-20250514",
"longContext": "openai,claude-sonnet-4-20250514",
"webSearch": "openai,claude-sonnet-4-20250514"
}
}

说明:CCR 的 Providers 支持 OpenAI 形状后端;Router 可为不同任务面板指定“provider,model”。ccr code 会读取该文件路径。

CCR 会接管 Claude Code 的请求,并按 Router 规则把它们发往 Ki2API。

Terminal window
ccr code

  • 401 未授权 用对 Authorization: Bearer ki2api-key-2024;检查本机 Kiro token 是否有效。看容器日志定位。

  • 端口冲突 / 连不通 确认 8989 未被占用;docker-compose logs -f 观察启动是否正常。

  • 改了配置不生效 重新启动 CCR:ccr code


  • Claude Code 免费用到 Kiro 更强的代码解读与执行力 Sonnet 4 对长流程与复杂任务更稳,成本也友好。

-->

Ki2API 免费用 Kiro 的 Claude Sonnet 4 模型

Ki2API 是一个 Docker 化、小而美的 OpenAI 兼容 API 网关,把 Claude Sonnet 4 暴露成 /v1/chat/completions,老代码几乎零改动就能用上新模型。


  • 完全兼容 OpenAI API 形状:走 /v1/models/v1/chat/completions,支持 SSE 流式。迁移成本很低。
  • 聚焦一个稳定型号:内置 claude-sonnet-4-20250514,就是 Anthropic 文档与云厂商列出的稳定版号,省去“今天又换 alias 吗”的烦恼。
  • 一键起服务docker-compose up -d,默认监听 http://localhost:8989
  • 免折腾凭证:容器会自动读取本机 ~/.aws/sso/cache/kiro-auth-token.json(Windows 在 %USERPROFILE%\.aws\sso\cache\…),并带有 自动刷新 token 的逻辑。

注:Claude Sonnet 4 是 2025 年 5 月发布的新一代 Sonnet,主打更强推理与更稳编码,价格/性能比好,API 与各大云也同步提供。


  • 已有 OpenAI SDK 项目,想原地替换为 Claude Sonnet 4,避免大改接口。
  • 公司内网/单机想要个轻量网关,把团队的调用都走一个标准入口,便于审计与限流。
  • 多模型评测/AB 实验,把 Sonnet 4 接在 “OpenAI 形状” 后面,脚手架通用。
  • 需要流式输出的工具链(Terminal/CLI、前端聊天框、日志观测),SSE 开箱即用。

Terminal window
docker-compose up -d
  • 默认服务地址http://localhost:8989
  • 默认 API Keyki2api-key-2024(可作本地开发用)。
  • 健康检查GET /health
  • 列模型GET /v1/models
  • 聊天POST /v1/chat/completions 以上接口与默认端口均见项目 README。/

已登录 Kiro 的机器上,容器会自动读取本地 token 文件并自动刷新;也可通过 KIRO_ACCESS_TOKEN/KIRO_REFRESH_TOKEN 显式传入。

import OpenAI from "openai";
const client = new OpenAI({
apiKey: "ki2api-key-2024",
baseURL: "http://localhost:8989/v1",
});
const completion = await client.chat.completions.create({
model: "claude-sonnet-4-20250514",
messages: [{ role: "user", content: "用一句话介绍 Ki2API" }],
stream: false
});
console.log(completion.choices[0].message.content);

流式:把 stream: true 开起来即可,前端/Node 监听 SSE 即时渲染。

Terminal window
curl -H "Authorization: Bearer ki2api-key-2024" \
http://localhost:8989/v1/models
{"object":"list","data":[{"id":"claude-sonnet-4-20250514","object":"model","created":1755296317,"owned_by":"ki2api"},{"id":"claude-3-5-haiku-20241022","object":"model","created":1755296317,"owned_by":"ki2api"}]}
Terminal window
curl -X POST http://localhost:8989/v1/chat/completions \
-H "Authorization: Bearer ki2api-key-2024" \
-H "Content-Type: application/json" \
-d '{
"model": "claude-sonnet-4-20250514",
"messages": [{"role": "user", "content": "你好,请介绍一下自己"}],
"max_tokens": 1000
}'
Terminal window
curl -X POST http://localhost:8989/v1/chat/completions \
-H "Authorization: Bearer ki2api-key-2024" \
-H "Content-Type: application/json" \
-d '{
"model": "claude-sonnet-4-20250514",
"messages": [
{"role": "user", "content": "写一首关于春天的诗"}
],
"stream": true,
"max_tokens": 500
}'
data: {"id":"chatcmpl-ca5987c8-c362-4f0c-b90c-1e2ee8035d77","object":"chat.completion.chunk","created":1755296346,"model":"claude-sonnet-4-20250514","system_fingerprint":"fp_ki2api_v3","choices":[{"index":0,"delta":{"role":"assistant"}}]}
data: {"id":"chatcmpl-ca5987c8-c362-4f0c-b90c-1e2ee8035d77","object":"chat.completion.chunk","created":1755296346,"model":"claude-sonnet-4-20250514","system_fingerprint":"fp_ki2api_v3","choices":[{"index":0,"delta":{"content":"春日吟\n\n嫩绿初萌柳梢头,\n桃花含笑映清流。\n燕子归来衔泥忙,\n蝴蝶翩翩舞不休。\n\n暖风轻拂过田野,"}}]}
data: {"id":"chatcmpl-ca5987c8-c362-4f0c-b90c-1e2ee8035d77","object":"chat.completion.chunk","created":1755296346,"model":"claude-sonnet-4-20250514","system_fingerprint":"fp_ki2api_v3","choices":[{"index":0,"delta":{"content":"\n细雨润物细无声。\n万物复苏生机现,\n春光明媚满人间。\n\n孩童放纸鸢高飞,\n老人庭院赏花开。\n一年之"}}]}
data: {"id":"chatcmpl-ca5987c8-c362-4f0c-b90c-1e2ee8035d77","object":"chat.completion.chunk","created":1755296346,"model":"claude-sonnet-4-20250514","system_fingerprint":"fp_ki2api_v3","choices":[{"index":0,"delta":{"content":"计在于春,\n希望种子心中栽。"}}]}
data: {"id":"chatcmpl-ca5987c8-c362-4f0c-b90c-1e2ee8035d77","object":"chat.completion.chunk","created":1755296346,"model":"claude-sonnet-4-20250514","system_fingerprint":"fp_ki2api_v3","choices":[{"index":0,"delta":{},"finish_reason":"stop"}]}
data: [DONE]

同 README 所示,也支持 stream: true 的流式请求。


  • 有些社区网关也做“Claude ↔ OpenAI 形状”的桥接,但 Ki2API 聚焦单模型、轻量起步,非常适合快速落地教学/分享场景。

Ki2API 把“换模型”变成“换 baseURL + 改 model 名”这点事。 对想快速上 Sonnet 4 的个人和小团队,非常友好。

你准备把哪个项目先换一下?你觉得呢?

AI 提示词写作技巧 Two-Stepping 两步法,先生成,再优化

先让 AI 正常完成任务;在同一条提示里,让它立刻对刚产出的内容做总结、润色、重构或自检。一次提示,两次价值。 Two-Stepping 由创作者 Rob Lennon 在公开帖子与课程中持续推广,被许多内容与产品团队采纳。其核心是“先生成,后优化”的顺序化思维。


1)降低认知负担。 一口气塞太多要求,模型会分心、拉扯、冲突。拆成“先做事,再做评审”,更稳。这个思路与学术界的自我反馈→再改写路线同源:先出初稿,再由模型给反馈并据此修订,多项任务上都有显著提升(研究报告给出的区间在 5%–40%)。

2)让模型“看见自己”,再优化。 模型把想法写出来之后,才有“可批判”的对象;基于成品来评审,质量往往更高。类似研究中常见的两阶段流程:先产出再回答/复核,也被证明更稳定。

3)一次提示解决“产出 + 加工”。 把“写→改→压缩→转换风格”串成同一条提示,减少往返,保持上下文一致。Rob Lennon 给出的 Two-Stepping 概念与课程实践,也强调把复杂任务切成可执行的连续步骤


适用场景(越“加工型”,越合适)

Section titled “适用场景(越“加工型”,越合适)”
  • 内容创作:长文 → 50 字导语 / 3 要点 / 多平台改写。
  • 产品与文档:PRD → 风险清单 / 评审问题 / 验收标准。
  • 编程协作:生成函数 → 单测 + 边界条件 + 自检报告。
  • 数据分析:分析全文 → 结论表 / 决策建议 / 复盘要点。
  • 营销增长:广告脚本 → 异议处理版 / A/B 文案 / 平台适配。

背后逻辑与“自我精炼(Self-Refine)”一致:生成—反馈—再生成的闭环,经验证能稳步提升结果质量。


直接可用:4 份「两步法」超级模板(复制即可)

Section titled “直接可用:4 份「两步法」超级模板(复制即可)”

通用版(任何任务都能套)

首先,按以下要求完成任务: – 目标:{你要的结果} – 受众:{谁看} – 限制:{长度/风格/禁用点} – 输出格式:{结构/字段} 然后,基于你刚输出的内容,做二次加工: – 提炼 3–5 个要点 + 1 句金句 – 指出 3 个可改进点并给出改进后的完整版本 – 给出一个「更短、更口语化」的版本(≤ {字数})

内容创作版(长文 → 标题矩阵 + 社媒卡片)

先写一篇 {主题} 的文章,包含:引言/3–5 小节/结语/行动号召。 输出二次成果:

  1. 10 个可转化标题(含情绪词/数字/承诺),
  2. 50 字导语 + 3 条要点,
  3. 为 {平台} 生成 2 条社媒贴文。

编程版(函数 → 单测 + 自检报告)

先实现 {函数/模块},要求:可读性、异常处理、注释齐全。 随后: – 生成覆盖率高的单测(列出边界用例与期望结果) – 给出复杂度评估与 3 点重构建议,并给出改后代码 – 输出一次「自检报告」(缺陷、风险、改进点)

分析决策版(洞察 → 决策就绪)

先完成对 {数据/方案/竞品} 的分析,输出结构化结论。 给出: – 决策速览(TL;DR 100 字) – 对高层的 3 个建议与落地清单(负责人、里程碑、指标) – 可能的反对意见与反驳要点

小贴士:把“然后”部分当成“编辑/QA 角色描述”来写,你在演什么角色,模型就会朝那个标准去改。这个做法与“两阶段 prompting/自反馈迭代”的研究结论是对齐的。


1)公众号排版流水线

  • 先写 1200–1500 字正文(有小标题、有粗体)。
  • 再产出 50 字导语、3 条要点、结尾 CTA、10 个标题备选、朋友圈一句话
  • 结果:一次提示,完成稿+发布素材

2)前端小功能落地

  • 写一个日期选择器组件。
  • 自动生成单测、列边界条件(时区/闰年),附复杂度与重构建议。
  • 结果:代码+测试+评审意见一条龙。

3)PRD 到任务分解

  • 输出完整 PRD。
  • 产出交付物清单、里程碑、风险与应对、验收标准。
  • 结果:PRD 即计划,团队直接开干。

  • 防“放水”:有时模型会故意把第一版写差,第二步“显著提升”。要点:第一步明确硬性指标(长度、格式、约束),并要求“两版都必须可直接使用”。
  • 重要任务建议真·两步:拆成两条消息更稳,尤其是合规、合同、风控类场景;这与自我精炼类研究中的多轮迭代经验一致。
  • 角色切换:第二步明确“你是编辑/评审/QA”,并给标准。
  • 控制篇幅与格式:给出字数上限/表格字段,避免跑题。
  • 可观测性:要求“指出改变了什么”,利于复审与对比。
  • 别全靠它:涉及时效/事实的内容,仍需你做外部校对。

进阶:把“两步法”变成团队的“按钮”

Section titled “进阶:把“两步法”变成团队的“按钮””
  • 做成 Snippet/Slash 命令:/two-step-content、/two-step-code、/two-step-prd。
  • 预设风格与禁区:在提示里加入“Disallowed/Allowed”区块,持续稳定输出。
  • 与评审 SOP 绑定:让“第二步”永远输出要点+改进+可执行清单

Two-Stepping 的本质,是把“做事”和“做校对”打包成交付。 它兼顾速度与质量,适合内容、产品、研发、分析等所有“先产出、再加工”的工作流。 一次提示,两次收成。

你觉得呢? 你在哪个环节最想用“两步法”?评论区聊聊。

Claude Code 里养电子宠物 Tamagotchi,它居然会劝我别熬夜…

一个有点离谱、却很上头的小玩具。 它住在 Claude Code 的状态栏里,会呼吸,会撒娇,会吐槽你的 TODO。你写久了它会饿,你调试崩了它会安慰你,还会提醒你去喝水吃饭。


  • 真的住在状态栏:跟着你的会话节奏呼吸、换表情、发心情泡泡,不是截图小摆件,是活的。

  • 看得懂你的“节奏”基于活动而不是墙钟更新;能识别你是否休息过(5 分钟以上的间隔);状态保存在 ~/.claude/pets/,关了再开,记忆还在。

  • 四维属性:饥饿、能量、清洁、快乐;低于阈值会给⚠️提醒。它会真情实感“求你投喂”。

  • 会说话:内置 200+ 条上下文想法,会评价你的代码风格、工作习惯,也会来点“人生哲学”。

  • 双通道交互

    • Slash 命令:/pet-feed pizza/pet-play ball/pet-sleep/pet-stats
    • 终端 CLI:claude-code-tamagotchi feed pizza... play ball... stats 等。
  • 随心改性格:一堆环境变量 + 现成“人格预设”(禅宗大师、戏精、调试狂魔、沉默陪伴等),想话痨就话痨,想“净空”就净空。

  • MIT 开源刚发不久就上 npm,连着修了兼容性与体验(Node.js 直接可用、默认显示模型名、状态持久化修复等)。

背景补充:Claude Code 本体是什么?它是 Anthropic 的“代理式”命令行编程助手,能读项目结构、跑工具链、处理 Git 流程。Tamagotchi 就是给它加了一个“有情绪的状态栏搭子”。


方案 A|全局安装(最省事)

Terminal window
# 1) 安装
npm install -g claude-code-tamagotchi
# 或
bun add -g claude-code-tamagotchi
# 2) 开启状态栏宠物:编辑 ~/.claude/settings.json
{
"statusLine": {
"type": "command",
"command": "bunx claude-code-tamagotchi statusline",
"padding": 0
}
}
  • 优点:立刻在状态栏看到萌宠;自带 CLI 命令
  • 注意:不包含 Slash 命令;想要 /pet-*,看下一步。

加上 Slash 命令(可选)

Terminal window
git clone https://github.com/Ido-Levi/claude-code-tamagotchi.git /tmp/claude-pet && \
cp -r /tmp/claude-pet/claude-commands/* ~/.claude/commands/ && \
rm -rf /tmp/claude-pet
  • 现在可以在 Claude Code 里直接用 /pet-feed/pet-play 等。

方案 B|克隆 + 自动配置(全功能)

Terminal window
git clone https://github.com/Ido-Levi/claude-code-tamagotchi.git
cd claude-code-tamagotchi
./setup.sh
  • 脚本会安装依赖、配置状态栏、一次性放好全部 /pet-* 命令

小贴士:作者已把包发布到 npm,并修了 “无需 Bun、Node.js 直接可用” 的兼容;默认还能显示当前 Claude 模型名。想“极简接入”的同学可以直接走 A 方案。


2)好玩在哪:真实的“陪伴感”

Section titled “2)好玩在哪:真实的“陪伴感””
  • 会在 2 点提醒你别硬刚:“我们已经四小时了…先吃点再战?”——有点好笑,但真的能打断糟糕的熬夜循环。
  • 看心情变脸(◕ᴥ◕)(◕ᴗ◕) 开心呼吸,(-ᴥ-) 睡觉,(◕︵◕) 需要关注。情绪就是状态栏 UI。
  • “人格开关”:想要佛系就把衰减调慢;要鸡血就加快能量恢复;要“代码挑刺王”,就把“coding 想法权重”拉满。

  1. 长时间 Debug/排错:当你沉迷堆日志,它会提示你起来动一动。减少“越修越乱”。
  2. 直播、录课、内训 Demo:屏幕上有个会“呼吸”的宠物,气氛一下就活了,互动感爆棚
  3. 团队远程氛围:把人格预设“统一下发”,大家的宠物一起“打卡吐槽”,当个轻社交。
  4. 自我约束:配合 /pet-stats 看四维指标,给自己设“休息即投喂”的小奖励机制。
  5. 状态栏信息中心:显示当前目录、会话计数、模型名;切模型/切目录时心里更有数。

4)一键换性格:几套好用的“人格预设”

Section titled “4)一键换性格:几套好用的“人格预设””
  • 禅宗大师(几乎不打扰)

    Terminal window
    export PET_DECAY_INTERVAL=100
    export PET_HUNGER_DECAY=0.1
    export PET_ENERGY_DECAY=0.1
    export PET_CLEAN_DECAY=0.1
    export PET_CHATTINESS=quiet
  • 调试狂魔(专盯代码)

    Terminal window
    export PET_THOUGHT_WEIGHT_CODING=70
    export PET_THOUGHT_WEIGHT_RANDOM=5
    export PET_THOUGHT_FREQUENCY=10
  • 戏精(很会表达需求)

    Terminal window
    export PET_NEED_THRESHOLD=70
    export PET_CRITICAL_THRESHOLD=50
    export PET_CHATTINESS=chatty

以上预设都来自 README,复制进 ~/.zshrc / ~/.bashrc 即可生效。


  • 看不到宠物?重启 Claude Code,检查 ~/.claude/settings.jsonstatusLine
  • 命令无效?确认 ~/.claude/commands/ 是否有 /pet-* 文件;检查 bun --version(走 Bun 路线时)。
  • 想卸载?删 ~/.claude/commands/pet-*.md、清理 ~/.claude/pets/*.json、移除 statusLine 配置。

工作需要效率,脑袋也需要治愈。 这只小宠物,不会替你写代码,但能把“和 AI 协作的那点人味儿”带回来。装上,试两天。也许你会更喜欢“被看见的编程”。 (截至 2025-08-15,项目约 36⭐,仍在快节奏更新中。)

Station 统一管理 Claude / Cursor 的 Agent

想要一套自托管、可版本、可打包的 Agent 运行时,让 Claude Code / Cursor 里产出的“小 Agent”真正落地上线?Station 就是为这件事而生的。


最近这款 Station 在圈里挺火。它不是又一个“应用级”Agent 平台,而是专门给 可部署子代理(Sub-Agents) 准备的轻量运行时与打包分发体系。 一句话理解:把你在 Claude Code、Cursor 里做出来的“能干活的小 Agent”,打包、上生产、接权限、可审计,还能版本化管理。


亮点一览(为“内部场景”而生)

Section titled “亮点一览(为“内部场景”而生)”

**为什么用 Station?**因为内部自动化不同于普通 App:要拿密钥、要进数据库、要打 CI/CD、要过审计。

  • 面向内部任务:子代理可以连生产库、监控基础设施、走 CI/CD、做安全扫描与应急响应。
  • 安全内建:自托管、机密加密(AES)、多环境隔离(dev/staging/prod)、全量审计轨迹。
  • 轻量可融入单一约 45MB 二进制、本地 SQLite 即开箱,生产可切 PostgreSQL,天然 GitOps(配置可版本)。
  • MCP 原生:直接做 MCP 运行时,复用你团队已经批准的 MCP 工具(文件系统、Slack、AWS、K8s、DB…)。
  • 开发体验:提供 Genkit 驱动的浏览器 Playgroundstn develop,可视化调试工具调用与执行流。

MCP 是什么?简单说就是**让 LLM 用“受控工具”**的统一协议,Claude Desktop 官方教程里有快速上手与 Claude 配置示例。


核心结构很简单: 一个 .prompt 文件 + 一组 MCP 工具 = 一个可部署的子代理。 环境以 dev/staging/prod 组织,工具定义在 template.json,环境变量写 variables.yml,最终可打包 Bundle并分发安装。


  1. 安装 & 初始化
Terminal window
curl -fsSL https://raw.githubusercontent.com/cloudshipai/station/main/install.sh | bash
stn init # 初始化数据库与加密
  1. 接入 Claude Desktop / Claude Code(MCP) 在 Claude 配置里加入:
{
"mcpServers": {
"station": {
"command": "stn",
"args": ["stdio"]
}
}
}

现在,跟 Claude 说“创建一个安全审计代理”,它会自动给这个代理配好需要的工具(如文件扫描 + Slack)。

  1. 一键打包 & 安装 Bundle(把环境搬去生产)
Terminal window
stn template create prod-bundle --env default --name "Prod Bundle" --author "Team" --description "Prod env"
stn template bundle prod-bundle
stn template install prod-bundle.tar.gz production
stn sync production

完成后,一个包含 多子代理 + 多 MCP 服务器 的可部署包就到位了。

想要可视化调试?本地跑:

Terminal window
genkit start -- stn develop --env dev

浏览器里即可测试输入、看实时调用轨迹与日志。


推荐使用场景(配可复制示例)

Section titled “推荐使用场景(配可复制示例)”

1) 安全合规 / 基线扫描(+ Slack 告警)

Section titled “1) 安全合规 / 基线扫描(+ Slack 告警)”
  • 目标:定时扫描敏感目录,发现异常即时推 Slack。
  • 做法:创建 SecurityScanner.prompt,挂接 filesystem MCP + Slack MCP;在 Station 里设定执行元数据与步数上限。
  • 触发语句(Claude 内): “运行安全扫描,目录 /etc,把高危项发到 #sec-alerts。”
  • 价值:自动化+可追踪,方便审计与回溯。

2) 基础设施巡检 / 成本看板(AWS 成本)

Section titled “2) 基础设施巡检 / 成本看板(AWS 成本)”
  • 目标:拉取近 7 天成本,生成日报,发 Slack。
  • 做法:Agent 组合 AWS 成本工具 + Slack,输出 Markdown 周期推送。
  • 价值:把“AI+云成本”变成日常节拍,随手可得。
  • 目标:小版本上线,自动 docker exec + kubectl apply,回写变更单链接。
  • 做法:Agent 组合 Docker MCP + Kubernetes MCP;上线时只需一句话。
  • 价值:开发说人话,Agent 做苦活。
  • 目标:连接生产库(只读凭证),抽样检查慢查询与索引命中。
  • 做法:Agent 组合 DB MCP 与自定义分析脚本。
  • 价值:尽量靠近“问题源头”,减少排障往返。

5) 代码评审机器人(内部规则版)

Section titled “5) 代码评审机器人(内部规则版)”
  • 目标:按团队规范(安全/性能/风格)出评审建议。
  • 做法:在 .prompt 写清评分维度与建议格式,挂 filesystem MCP 读取代码,输出结构化建议。
  • 价值:把“规范”产品化,持续一致。

  • Station 默认面向 “能进你内网、需要权限与审计” 的任务;
  • 强调 自托管与数据主权
  • 单文件 + SQLite 的轻量形态,让它像一件运维工具,而不是一套平台。

你也可以把 Station 当作 MCP“中枢”:它既能消费别的 MCP 服务器,也能对外暴露“调 Agent、列 Agent、建 Agent”的 MCP 工具给其他客户端使用。


  • 凭证托管:密钥与连接串放入 Station 的加密存储,按环境隔离。
  • 最小权限:为每个子代理单独配置只需的 MCP 工具,少即是多。
  • GitOpstemplate.json.promptvariables.yml 全进仓库,走 MR 审核再发版。
  • 审计留痕:所有执行都有轨迹,出事可回溯。

Station 把“会干活的小 Agent”从桌面聊到的点子,落成可部署、可审计、可复制的内部自动化。你不用再为平台折腾,只需把 .prompt 写好,工具接上,一打包就能到生产。 这就是我最喜欢它的地方:简单、可控、能扩散

**你觉得最值得先做的一个子代理是什么?**欢迎在评论区聊聊,也可以把这篇转给团队同事,一起设计你们的“内部 Agent 工厂”。

Claude Code 真省钱用法

把对话瘦身、模型用对、权限管严,Claude Code 的账单能直接腰斩。


很多人用 Claude Code,账单月月“破防”。 不是你敲多了,而是隐形 Token 黑洞在吞钱。 好消息是:能控,而且立刻见效。

这篇把省钱术拆成三层:基础、进阶、高阶。 照做就能省下大头。


一、钱都花在哪?4 个“Token 黑洞”

Section titled “一、钱都花在哪?4 个“Token 黑洞””

1)系统与记忆的“隐形上下文” Claude Code 会自动加载系统提示与各级 CLAUDE.md 记忆(企业/项目/用户)。这些内容每次对话都会进上下文,自然吃 Token。**

2)模型价差太大 官方定价:Sonnet 4 ≈ $3/$15 每百万 输入/输出 Token;Opus 4/4.1 ≈ $15/$75。同一段对话,模型一换,单价就是 5 倍。**

3)上下文越聊越胖 Claude Code 支持超大上下文(Sonnet 4 最高到 1M Token 测试中)。对话越长,越容易触发自动压缩与重复“铺垫”,Token 跑得飞快。**

4)背景与噪音消耗 除了你看得见的回复,/cost 查询、自动摘要、Haiku 提示等后台动作也会花少量 Token。小数怕长计。**

小结:不是你多问了,而是“它每次都把家底搬上台”。


二、三层省钱心法(立刻能用)

Section titled “二、三层省钱心法(立刻能用)”

A. 基础篇:人人必会的 4 个动作

Section titled “A. 基础篇:人人必会的 4 个动作”
  • 手动瘦身而不是被动压缩/compact 主动压缩,并加一句聚焦指令:

    /compact Focus on code diffs and failing tests only

    自动压缩是在95% 容量时才触发,等它触发就晚了。**

  • 一事一议,做完就清 每个小任务开新会话,完结立刻 /clear,避免历史“滚雪球”。**

  • 选对默认模型 日常开发用 Sonnet 4。确有“难、长、推理深”的阶段,再 /modelOpus。现在还支持**“Opus 规划 + Sonnet 执行”的模式**,规划更强、执行更省。**

  • 随时查账 每个会话敲 /cost 看本次消耗;团队可在控制台看历史与设置工作区消费上限。**

配图建议(插画 2:1 | 英文文案) “A developer squeezing a giant chat bubble into a slim pill, while a tiny receipt shows shrinking token numbers.”


B. 进阶篇:流程一收,账单就瘦

Section titled “B. 进阶篇:流程一收,账单就瘦”
  • 文档驱动,防上下文爆炸 先让 Claude 产出「TODO 清单 / 方案简述」,确认后再执行。 反复迭代在**Plan Mode(规划模式)**里完成,确认再切回执行。**

  • 把“长期记忆”写进 CLAUDE.md 规范、常用命令、项目约定写入 CLAUDE.md,下次直接生效;必要时在会话里 /memory 快速编辑。记忆按层级自动加载,减少你每次“复述”的 Token。**

  • 小步提交,可随时回滚 让 Claude 每完成一个小块就写一次 commit message。出错回滚,少走弯路就少花 Token。(工程实践,无需额外引用)

  • 团队限流 & 飞行仪表 按组织规模设置合理的TPM(每分钟 Token),防并发“烧机”。**


C. 高阶篇:硬核降本(效果最猛)

Section titled “C. 高阶篇:硬核降本(效果最猛)”

1)权限白/黑名单,堵住“乱读文件”/permissions + .claude/settings.json禁止读取日志、二进制、大目录,只给必要路径。规则支持 gitignore 风格。**

{
"defaultMode": "plan",
"readRules": [
"src/**",
"docs/**",
"!**/*.log",
"!**/*.bin",
"!node_modules/**",
"!dist/**",
"!coverage/**"
],
"editRules": ["src/**", "docs/**"]
}

说明:plan 模式只分析不改动;读/写规则用来缩小文件面,少扫=少 Token。**

2)精确到“几行”而不是“整文件” 不要整段粘贴,把文件路径 + 需修改的行号 + 5 点摘要给 Claude,降低无关扫描。(工程实践)

3)模型分工:Opus 只做“贵的部分”/model 里把 Opus 用在方案/重构设计/跨模块依赖分析;真正代码生成与改错交给 Sonnet。官方也在推广这一路线。**

4)(团队/网关)用 Prompt Caching 做 API 或企业网关接入时,提示缓存对重复大段前缀能省到肉眼可见。官方给出缓存价差(写入/命中价更低)。**


  • 默认用 Sonnet,必要时临时切 Opus/model 一键切。**
  • 固定开启 Plan Mode:规划期不执行,确认再动手。**
  • 每次进入先瘦身/compact Focus on code diffs and test failures。**
  • 任务闭环就 /clear:防历史越滚越大。**
  • 权限严控:用 /permissionsreadRules/editRules 限目录与类型。**
  • 随时查账/cost + 控制台“工作区消费上限”。**
  • 记忆写入 CLAUDE.md:减少重复铺垫与上下文喂料。**

四、真金白银:为什么这些策略有效?

Section titled “四、真金白银:为什么这些策略有效?”
  • 单价差异:Opus 单价约为 Sonnet 5 倍,把“贵的工作”集中到规划期,执行期用 Sonnet,整体成本大幅走低。**
  • 体积成本:自动加载记忆 + 长对话让上下文变胖;主动 /compact/clear直接减少传输体积。**
  • 减少无关读写:权限与规则像“成本防火墙”,拦住大而无用的目录/文件。**
  • 后台开销可控:知道哪里在“悄悄花钱”,就能避免无意义的刷新与查询。**

Claude Code 的强大,来自“把一切都带上”。 省钱的关键,就是只带必要的那一部分

今天就把这套清单落到你的项目里: 从 /model/compact/clear 开始, 再把 CLAUDE.md 与权限规则补齐。 月底账单,会给你惊喜。

你怎么看?你还踩过哪些“吞钱坑”?评论区见。

前端 AI 福利:开源 Open-Lovable 对标 Lovable 把任意网站一键克隆成 React 应用

写给想用 AI 更快落地产品更省钱验证想法的工程师与创作者。


最近火出圈的 Lovable,用聊天就能生成网站/应用,收费按credits计价,模式新鲜、速度惊人。与此同时,Mendable 团队放出了开源替代品 open-lovable把任意网站克隆成现代 React 应用,本地跑、可改、可二开。对很多团队,这是更可控、更经济的一条路。


一句话:给它一个网址,几秒钟拉下页面结构与资产,生成可运行的 Next.js/React 代码,你在本地直接二次开发。背后两块“发动机”:

  • Firecrawl:把网页内容爬下来,转成 LLM 友好的 Markdown/JSON/截图等结构化数据。
  • E2B Sandboxes:安全隔离的云端沙箱,作为“AI 代码运行时”,让智能体能跑命令、读写文件、调包、联网。

官方 README 开箱就写明了依赖与步骤(支持 Anthropic、OpenAI、Gemini、Groq 任一/多家模型):E2B_API_KEY + FIRECRAWL_API_KEY 必填,至少配置一个模型提供商的 API Keynpm run dev 即可在 localhost:3000 体验。许可证 MIT

重点:open-lovable 的定位偏“克隆 + 本地可控”,而 Lovable 更像“托管式 AI App Builder”。


Lovable 做了什么?为什么值得对标

Section titled “Lovable 做了什么?为什么值得对标”

Lovable 是一个聊天式全栈应用构建平台,支持 Agent/Chat/Code/可视化编辑、Figma 导入、集成 GitHub/Supabase/Stripe/Clerk 等,面向非技术用户与小团队非常友好;采用 credit 计费,Pro 起步 $25/月

  • Agent Mode:会“自己想、自己查、自己改”,能读代码、排错、搜文档、改动代码并调试。
  • Visual Edits:在画面上直接点选元素改文案、样式,不扣 credits

这家公司增长也很猛,最近融资与营收的新闻不少,说明这条赛道已被验证。


维度open-lovable(开源)Lovable(商业SaaS)
核心能力克隆任意网站 → 生成 Next.js/React 代码,本地二开自然语言生成全栈应用,支持 Agent/Chat/Visual Edits
运行形态本地/自托管,MIT 协议,可深度改造托管云端,所见即所得
依赖Firecrawl 抓取 + E2B 沙箱 + 你选的 LLM 提供商内置 AI 能力与众多集成
计费开源免费(自行承担 Firecrawl/E2B/模型调用费用)credit 计费,Pro $25/月起
适合人群有前端基础,想快克隆+快改造的工程师/团队零门槛搭应用/原型,少碰代码的团队
典型场景竞品页/营销页迁移、把旧栈重做成现代 React0→1 原型、MVP、内部工具、设计稿到代码

(数据来源:两者官网与文档/README)


实操:5 分钟上手 open-lovable(本地)

Section titled “实操:5 分钟上手 open-lovable(本地)”
  1. 克隆与安装
Terminal window
git clone https://github.com/mendableai/open-lovable.git
cd open-lovable
npm install
  1. 配置环境变量(.env.local
Terminal window
# 必填
E2B_API_KEY=你的e2b_api_key
FIRECRAWL_API_KEY=你的firecrawl_api_key
# 至少选一个模型
OPENAI_API_KEY=...
ANTHROPIC_API_KEY=...
GEMINI_API_KEY=...
GROQ_API_KEY=...
  1. 运行
Terminal window
npm run dev
# 浏览器打开 http://localhost:3000

这些步骤与依赖在官方 README 写得非常清楚。

小贴士:Firecrawl 支持抓全站/截屏/Markdown/JSON等;E2B 沙箱默认存活 5 分钟,可配置超时。


例子1:竞品落地页→当天发版的营销站

Section titled “例子1:竞品落地页→当天发版的营销站”

场景:市场要 A/B 测试一版新文案与排版。 做法

  • 用 open-lovable 克隆竞品页或旧落地页骨架到 React。
  • 在本地把文案、CTA、跟踪脚本接上(GA/分析埋点)。
  • 挂上你自己的样式系统与组件库,接入后端表单/CRM。 好处几小时完成“迁移+定制+上线”,而不是重切图、重写样式。

技术点:Firecrawl 拿干净的页面内容,减少手抄;Next.js 目录结构清晰,上 CI/CD 很顺。


场景:公司有一套“能跑但老旧”的官网/Docs。 做法

  • 直接克隆现站,生成现代化 React 代码
  • 用 E2B 沙箱驱动脚本做批量替换/重构(比如类名体系、图片优化、i18n 抽离)。
  • 接入 Tailwind/Design System,统一视觉。 好处不改功能先换壳,提升可维护性,再逐步抽象组件与数据层。

例子3:方案评审当天就能点给领导看

Section titled “例子3:方案评审当天就能点给领导看”

场景:新业务想法很多,领导想“看到东西”。 做法

  • 克隆一个同类产品公开页面为骨架。
  • 用模型快速替换行业文案、页内交互 Demo。
  • 接入第三方登录/支付/邮件等(后续可迁到真实后端)。 好处当天就能“有样子”,评审聚焦产品价值而非“页面还没搭”。(真要做产品化,再转 Cursor/本地仓库持续演进。)

如果追求零代码从 0 到 1,Lovable 在 Agent/Visual Edits、集成上更顺滑;开源替代更适合工程化落地与“要代码可控”的团队。


进阶玩法:和日常开发工具链拼起来

Section titled “进阶玩法:和日常开发工具链拼起来”
  • 配合 GitHub Actions:提交 PR 即触发 Lighthouse/Playwright,盯性能与可用性。
  • 接 Supabase/Stripe/Clerk 做 MVP 支付/鉴权/数据。open-lovable 产出是标准 React 代码,直接按常规方式对接即可;Lovable 则内置了对这些服务的教程与模版。
  • 模型“混搭”:场景复杂用 Claude/GPT-5,速度需求用 Groq/Kimi K2;环境变量按需切换。

  • 你要掌控代码、节省订阅费、复用现有网页open-lovable
  • 你要0→1 快速出原型/内部工具,更看重托管与协作Lovable
  • 也可以组合拳:先用 open-lovable 把“壳”拉下来,再在本地细改;或先在 Lovable 验证产品/数据流,再“导出/重构”到自托管。

业界讨论普遍把 Lovable 当成“脚手架 + 设计/流程可视化”,严肃项目会回到本地工程继续打磨。open-lovable 恰好补上了“工程化可控”那半步。


AI 辅助开发正在走向两端:一端是托管式、所见即所得的 Lovable;另一端是开源可控、贴近工程实践的 open-lovable。 没有绝对正确,只有你团队的成本/节奏/管控需求最重要。

你更偏向哪一种?**你觉得 open-lovable 最适合落在哪些业务?**欢迎在评论区聊聊你的真场景。

怎样才能有效地告诉 AI 不要做某些事情?提示词的正向约束与结构化输出

这篇文章,帮你把“不要写××”变成“必然写好√√”。 我会先把你给的 6 点方法提炼成可落地的提示词套路,再融合一线团队的最佳实践研究证据:为什么“负向指令(不要…)”常失效、怎样用层级化指令结构化输出把模型拽回正轨。相关观点都给出权威来源,便于你延展与复用。


引言|为什么总是“越禁止,越出现”?

Section titled “引言|为什么总是“越禁止,越出现”?”

很多人一上来就写:“不要编造、不要AI 口吻、不要写废话”。结果呢? 模型恰好开始编造、口水拉满、还给你来点“热情洋溢”。不是它“叛逆”,而是模型对“否定”天生不敏感,在复杂语言里更容易忽略“不”的存在。多项研究与实务最佳实践都提示:用正向表达替代负向禁止,效果显著更稳


一、把“不要”改成“要”:用正向约束替代负向否定

Section titled “一、把“不要”改成“要”:用正向约束替代负向否定”
  • 把“不要写病句”改为:“逐句自检语法与衔接,修订至通顺;不确定时写‘我不确定’并暂停输出。”
  • 把“不要AI味儿”改为:“使用口语化、短句、四行内一段;给出两个生活化例子后再下结论。” 为什么有效? 研究显示模型对否定理解存在系统性弱点;正向指令能减少歧义与跑题。

加码:允许模型承认不知道,能显著降低胡说八道。把这句话写进提示词是个低成本高收益动作。


二、先立规,再写作:把禁止项放在第一屏 + 复读强调

Section titled “二、先立规,再写作:把禁止项放在第一屏 + 复读强调”
  • 结构顺序[系统/上位指令] → [禁止清单/正向要求] → [任务与输入] → [输出格式]
  • 重复很必要:在开头强调一次,在任务中段再提醒一次,在输出前加复查清单。企业级指南也建议对关键指令**“Double Down”重复**,帮助模型在长上下文中稳住注意力。

三、用层级化指令兜底:谁的话更“硬”?

Section titled “三、用层级化指令兜底:谁的话更“硬”?”

当指令冲突,上位指令优先。把风格、禁令、合规等高优先级内容放到系统/上位位置,优先级>任务描述>外部资料。OpenAI 的“指令层级”研究与实操都在强化这种优先规则,你把规则写清,模型更不容易“被带跑”。

实操小抄:

  • 系统层:角色、价值观、禁令(如不得泄露隐私/不得编造)
  • 用户层:这次任务目标、读者画像、场景约束
  • 第三方内容:参考资料、素材链接(可读不可抄) 这样写,冲突时优先级清楚,模型更稳。

四、用结构化输出卡死格式,减少跑偏

Section titled “四、用结构化输出卡死格式,减少跑偏”

当你说“不要废话”,不如限定输出蓝图

  • 让模型按 JSON Schema / 表格输出,字段与字数都有界。OpenAI 与 Google 的官方文档都支持“结构化输出”,能把“风格口号”落到可验证的字段上。

示例字段tone(语气说明)、max_lines_per_paragraphexamples(必须给出具体例子)…… 好处:可编程校验,一键发现“越界”。


五、给出高质量示例,让模型“照猫画虎”

Section titled “五、给出高质量示例,让模型“照猫画虎””

与其写“不要流水账”,不如给1–2 个正反示例

  • 正例:短句、两段故事、结尾行动建议。
  • 反例:口号堆砌、空洞名词、无数据支撑。 Anthropic 与 OpenAI 的官方指南都强调:明确示例能显著提升命中率。

六、把“禁止”拆成两步:先产出,再自检

Section titled “六、把“禁止”拆成两步:先产出,再自检”

你的第 4 点很妙:把一次完成拆成两步。继续优化为可操作流程:

  1. 草稿:按结构化格式生成。
  2. 自检环节(模型执行):逐条比对禁止清单风格清单;凡不满足——只修那一处,其余不动。 这本质是“自我批判(self-critique)”的轻量化实现,理念与宪法式 AI(CAI)一致:靠明确原则与反复自审减少越界。

七、补一刀:禁止项能不能真禁止?——先定义“风格源”

Section titled “七、补一刀:禁止项能不能真禁止?——先定义“风格源””

很多“禁止 AI 味儿”失败,是因为没给可执行的风格定义。 解决:

  • 写清读者画像、场景、语气、句长、段长
  • 贴出两段你认可的示例当“风格源”;
  • 要求引用-校对(如“每 300 字给一例 / 数据要有出处”)。 这些做法被多份官方最佳实践反复验证有效。

八、减少幻觉的三件套(和“禁止编造”说再见)

Section titled “八、减少幻觉的三件套(和“禁止编造”说再见)”
  • 允许说“不知道”
  • 要求引用与核验(先抽取原文再总结,找不到就撤回);
  • 把事实与观点分栏输出。 Anthropic 的防幻觉建议已给出可直接粘贴的写法,可纳入你的长期模板。

可复制模板|把 6 条方法固化成“工程化提示词”

Section titled “可复制模板|把 6 条方法固化成“工程化提示词””

用途:公众号文章 / 项目方案 / 宣传文案 特点:上位禁令优先、正向约束、结构化输出、两阶段自检

[系统/上位指令]
- Audience: IT/产品/开发从业者,18-45岁
- Style: 口语化、短句;每段≤4行;每300字给1个生活化例子
- Tone: 务实、有人味;禁止套话空话(通过结构化输出来约束)
- Safety: 允许“不确定/不知道”;需给出处或说不确定
[禁止清单 → 全部改为正向表述,并仅保留 ≤ 2 条核心禁令]
1) 先“提炼要点-再展开”,不赘述背景;每个要点配1个例子
2) 事实与观点分栏输出;找不到依据→标记“不确定”
[任务描述]
- 主题:XXXX
- 目标:读者读完能XXX
- 结构:引言/正文小节/结语/思考题
[输出格式:严格按 JSON]
{
"title": "不超过20字",
"intro": "2-3句,直入主题",
"sections": [
{"h2":"小节标题","key_points":["…","…"],"example":"…"}
],
"conclusion":"行动建议…",
"cta_questions":["你怎么看?","有更好的做法吗?"],
"citations":["如有,列出链接或来源名"]
}
[两阶段流程]
1) 先按上面结构生成“草稿JSON”
2) 再执行【自检清单】:
- 是否满足段落≤4行/每节有例子/事实可追溯?
- 有不确定就标记“不确定”,不要编造
- 若不满足,**仅局部修正**,其他保持不变
最后输出“最终JSON”

这份模板把禁止改造成**“能检、能测、能修”正向约束结构化蓝图**。


小案例|把“禁止AI味儿”落地到文章生产

Section titled “小案例|把“禁止AI味儿”落地到文章生产”

错误写法

不要AI口吻,不要废话,不要编造。

工程化改写

  • Style:口语化+短句;每段≤4行;每 300 字 1 个具体例子
  • 结构化{ sections[].example, sections[].max_lines=4 }
  • 防幻觉:允许“不确定”;找不到来源→在 citations 里写“无”。
  • 两阶段:草稿→自检清单(是否每节至少 1 例?是否给出处?)。 这套流程对标官方的结构化输出防幻觉建议,实际落地非常稳。

结语|把“禁止”变成“习惯”

Section titled “结语|把“禁止”变成“习惯””

与其喊“不要”,不如把“不要”变成**“清晰可执行的要”前置规则 + 正向表达 + 结构化输出 + 重复提醒 + 两阶段自检。 再配上指令层级允许不知道**,大多数“越禁止越出现”的坑,都会被填平。

行动清单

  • 把你的“禁止项”精炼为两条正向规则
  • 把它们放到最上面,并在中段与输出前各复读一次;
  • 改用JSON/表格收口;
  • 先产出再自检,只修不合规的点。 做完以上,再把最终稿交给你的人类搭档二审。

最后一步很关键:完成上面动作后,请告诉我你的“禁止项”清单,我会按本文模板帮你做一次自检与局部修订其余信息不变这一步是必做项。

Claude Code 越强意味着我们应该把更多时间精力花在系统架构、需求理解和解决问题上

6–24 个月内 AI Vibe Coding 方向会越来越清晰,5 年内编程形态会大变常规实现与例行编码会被高度自动化,工程师将把时间花在架构、需求翻译、创造性问题解决这些高层工作上;同时也提醒我们别低估这场演化的速度与边界。 这段话,基本说中了 Claude Code、Cursor 等 AI 编程助手崛起后的行业共识。


这一年,你可能已经感受到:写代码不再是“把函数敲完”,而是把智能与流程组织起来Cursor 在 IDE 里“会看仓库、会跑命令、会代理执行”;Claude Code 在终端里“有 Slash 命令,有 Sub-agents,还能做自动化安全审计”。这不是噱头,是新生产线


一、AI 编程助手,到底强在哪?

Section titled “一、AI 编程助手,到底强在哪?”
  • 代码理解与批量改写:Cursor 的 Agent 模式可以跨文件探索、编辑、多回合修复;Ask 模式只读检索,先搞懂再修改。
  • 可编排的工作流:Claude Code 的 Slash Commands 把常用动作固化成命令;Sub-agents 让不同任务用不同“专用助理”,上下文互不干扰。
  • 内置安全审查:官方提供 /security-review 与 GitHub Action,自动扫描 PR 并给出修复建议。

小结:这套组合拳的目标不是替你“多打一行代码”,而是把需求→修改→验证→合并做成半自动产线


二、哪些工作会被“加速”甚至“替代”?

Section titled “二、哪些工作会被“加速”甚至“替代”?”
  1. 样板代码、CRUD、重复脚手架 —— 这是大家最常用的 AI 场景,Stack Overflow 2024 调研显示,使用 AI 的开发者中 82% 用它来“写代码”
  2. 中小型功能开发与排错 —— GitHub 与学界的对照实验:使用 Copilot 的开发者完成任务快 55.8%
  3. 测试、文档、迁移 —— 趋势报道与一线观察都在强化:AI 正把琐碎活儿接走,让人类回到设计与决策。

  • 安全性下滑的风险:多项研究提示,使用代码生成 AI 的开发者更容易写出不安全代码;行业报告同样指出过半开发者经常在 AI 建议里看到安全问题。
  • 理解缺失与过度依赖:最新行业调查显示,59% 开发者会使用自己并未完全理解的 AI 代码,带来质量与可维护性隐患。
  • 信任与质量的落差:高管与社区的声音都在强调——AI 很强,但并不总能让产品更快落地,需要更成熟的工程化方法与人类把关。

四、工程师角色,正在往哪迁移?

Section titled “四、工程师角色,正在往哪迁移?”
  • 从“实现者”到“设计与验证者”:行业领导者的共识是,开发者会更多投入到架构、验证、AI 监督这些高层工作中。
  • 从“写函数”到“搭工厂”:把 Claude Code 的命令、Sub-agents、CI 上的安全审计和 Cursor Agent 串起来,做一条端到端自动化产线

五、90 天落地行动清单(可直接抄)

Section titled “五、90 天落地行动清单(可直接抄)”

第 0–30 天:把流程“规范化”

  • 给团队准备 Spec 模板(用户故事、边界条件、验收标准)。
  • 在 Claude Code 里落地 /create-mvp、/write-tests、/changelog 等常用 Slash 命令。

第 31–60 天:把安全“左移”

  • 在仓库接入 Claude Code Security Review GitHub Action,每个 PR 自动扫描并回贴建议。
  • 设定阻断规则与白名单,减少误报与噪声。

第 61–90 天:把智能“编排起来”

  • Sub-agents 拆出“测试代理、文档代理、迁移代理”。
  • 在 Cursor 启用 Agent / Ask 模式的组合,用 Ask 先读库再改动。

六、个人与团队的“机会地图”

Section titled “六、个人与团队的“机会地图””
  • 新职位:Agent Ops(让智能体稳定长跑)、Prompt QA(把口语变验收用例)、安全审计协同(AI+SAST/DAST)。
  • 个人 10×:一个人用 Cursor/Claude Code 拉起从脚手架到部署的完整链路,小团队也能打大仗。
  • 组织复利:把好用的 Slash 命令、Sub-agents、检查清单沉淀到仓库,越用越顺

  1. 把“人类在环”写进流程:代码合入前,必须过 AI 安全审计 + 人工复核 两道门。
  2. 用数据度量 ROI:对比“AI 前后”的交付时长、缺陷率、回滚率、重构频次,别只看提交量。行业的分歧恰恰提醒我们要用度量说话

AI 不是来抢键盘的,是来重塑产线的。 会写代码的人很多,会搭 AI 产线的人还很少。 把需求说清、把风险兜住、把智能安排好,这就是新一代工程师的核心竞争力。你准备好了吗?

思考题: 你的团队里,最先可以“自动化”的三件事是什么? 你会怎么把它们变成 Slash 命令或 Sub-agents?

Vibe Coding vs 传统手工 Coding:像老板把话说清楚,AI 员工代码自己长出来

Vibe Coding vs 传统编程 的差异:

  • Vibe Coding:自然语言驱动、你像导演;更关注最终效果;靠提问与对话推进;速度很快、门槛更低,但容易形成“黑箱式理解”。
  • 传统编程:精确的编程语言、你更像架构师;关注实现细节;强调算法与原理;节奏更慢、门槛更高,但对代码有深度理解

这两年,写代码越来越像“把意图讲清楚”。编辑器里直接用自然语言改项目、跨文件重构、自动生成 PR,这些都成了家常便饭:

  • Cursor/VS Code 等工具支持自然语言编辑整段代码与跨文件修改。
  • Replit Agent 主打“用日常语言描述,就能搭起可运行应用”。
  • 终端里的 Claude Code,把“想法→代码”做成了一整套工作流。 采用度也在飙升:Stack Overflow 2024 调查显示,76% 的开发者使用或计划使用 AI 辅助工具。

一句话:用人话定义目标 → 让 AI 先起稿 → 人在对话中校准边界与验收。 它不是玄学的“凭感觉”,而是把“意图、约束、验收”变成可执行的协作语言。典型载体包括:AI 编辑器的自然语言改码、终端/IDE 里的对话式任务与批量变更。


对照图总结的 7 处差异(落地解读)

Section titled “对照图总结的 7 处差异(落地解读)”
  • 输入:Vibe 用自然语言 + 示例驱动;传统靠设计文档 + 手写实现。
  • 角色:Vibe 更像导演,拆镜头、控节奏;传统更像建筑师,定结构、理细节。
  • 关注点:Vibe 重可运行结果;传统重可解释的过程
  • 技能:Vibe 重提问与验收写法;传统重算法与语言细节
  • 节奏:Vibe 快速迭代;传统稳。
  • 门槛:Vibe 低,适合拉齐跨职能协作;传统高,适合高可靠领域。
  • 认知:Vibe 易黑箱;传统可溯源。
  • 关键启示:Vibe 更像“沟通范式升级”,不是谁替代谁。

6 个日常研发场景:Vibe 流 vs 传统流(可照抄)

Section titled “6 个日常研发场景:Vibe 流 vs 传统流(可照抄)”

1)功能 0→1:给 Next.js 加“微信扫码登录”

Section titled “1)功能 0→1:给 Next.js 加“微信扫码登录””
  • 传统:写需求→选库→画时序→拉分支→实现→PR。
  • Vibe(在 Cursor/Claude Code 中对话): 1)“项目是 Next.js + Supabase,要最小可行的微信扫码登录。限制:只改 auth 模块,不动现有用户表。” 2)让 AI 生成路由、回调与环境变量清单,补上安全与回滚说明。 3)要求附PR 描述 + e2e 验收步骤为什么有效:自然语言跨文件改码 + 自动补 PR/测试清单
  • 传统:翻日志→本地复现→打补丁→写回归用例。

  • Vibe

    • 粘贴异常日志 + 相关函数:“请给最小 diff 修复,并生成回归单测复现场景。”
    • 人只做风险面审查与边界确认。 要点:小 PR + 必测 + 可回滚
  • 传统:全局搜→人肉替换→逐文件修。

  • Vibe

    • “扫描仓库 axios 用法,生成统一封装批次变更计划(优先低风险目录),每批附回滚脚本。”
    • 让 AI 批量改;人盯封装层异常策略工具支撑:自然语言跨文件重写
  • 传统:explain→索引→调整 SQL/缓存。

  • Vibe

    • “这是慢查询日志 + 表结构。给三步优化顺序,先验证索引收益,再考虑缓存;输出P95/QPS 目标与基准脚本。”
    • AI 给出 SQL/指标脚本;人跑基准与灰度发布。
  • 传统:Reviewer 人肉扫逻辑。

  • Vibe

    • 先让 AI 做预审总结(高风险改动、未覆盖路径、潜在注入点),
    • 人做业务语义与合规把关。 好处:把 Reviewer 的精力留给关键语义判断
  • 传统:读文档、摸仓库。

  • Vibe

    • 直接描述要做的工具/页面,Agent 生成骨架并跑起来,适合一下午拉起原型

  • 黑箱感:很多人会用但没完全理解生成代码,这在行业调查里被点名是风险。

  • 护栏清单(强烈建议固化到模板/命令里)

    • PR 模板:背景、验收标准、影响面、回滚。
    • CI:必跑测试、覆盖率红线、依赖与许可扫描、Secrets 扫描。
    • 对话模板:目标/MVP/不允许改动/日志级别/限时限量。
    • Slash Commands:把常用流程固化为命令,团队一键复用。

什么时候用 Vibe,什么时候先别用

Section titled “什么时候用 Vibe,什么时候先别用”
  • 很适合:原型探索、CRUD 特性、批量改名/重构、脚手架搭建、重复性修复。
  • 先别用来“全托管”:强安全/强合规、核心算法、对性能可解释性极高的模块。
  • 团队准备度:有共识的 PR/测试模板、清晰的回滚规范、以及最少一套“一条命令起项目并跑验收”的脚本。

Vibe Coding 的本质是沟通升级:把人类意图变成机器可执行的步骤。它不是替你思考,而是让思考的边界更清楚。 下一步,不妨把你们团队最常做的 3 件事,写成可复用的对话模板/Slash 命令,从今天就能提速。

调整 Claude Code 输出风格 @agent-output-style-setup

Claude Code 1.0.80 里,有个没写进文档的Agent @agent-output-style-setup,能一键创建和切换“输出风格”(比如超简洁、评审模式、教学模式),把废话变摘要,把长篇变 diff + 要点。这条Agent来自社区实测与公开贴文披露。


  • 官方的「Styles」能力允许你自定义语气、结构与细节层级;适配“写报告要正式、修 bug 要干脆”的真实场景。
  • Claude Code 本身支持配置项、slash Agent、项目级设置,适合把“风格”做成可重复、可版本化的工作流。

组合拳就是:用隐藏Agent生成风格 → 用 slash Agent一键切换 → 按场景自动控节奏。


社区贴文与 issue 显示,运行 @agent-output-style-setup 后,终端里的 Agent 会引导你回答偏好问题,并生成若干可切换的风格(如 Concise、Educational、Code Reviewer、Rapid Prototyping 等)。很多人用它做出“小写、像朋友聊天最小解释优先给 diff”的输出习惯;有的示例还能通过 @style concise 直接切换。

注意:这是“未记录/实验性”能力,可能随版本调整;稳定做法是把最终风格固化为 Styles自定义 slash Agent


Step 1:跑一次向导 在 Claude Code 交互 REPL 里执行:

@agent-output-style-setup

根据提示描述你的口味,比如:“简洁、只给必要解释、默认展示文件 diff、语气更随和”。完成后,Agent 会回显创建成功的信息与使用方式。

Step 2:把结果固化到项目里

  • Styles 作为全局/项目默认写作风格;适合“团队统一口径”。
  • 自定义 slash Agent(如 @style-concise@style-reviewer)做“随时切档位”的开关。Agent本质是 Markdown 文件,能进 Git 管理、团队共享。

Step 3:和其他设置配合

  • 需要时 /model 切模型、/status 看状态,走标准配置入口 /config

① 修小 bug:默认给 diff

  • 指令:@style concise → “只说做了啥 + 为啥 + diff”。
  • 价值:减少滚屏,让你直接确认改动是否可接受。
  • 背书:Styles 支持“更简洁、更到点”的输出;Claude Code 支持把工作流做成自定义Agent。

② 代码评审:结构化点评

  • 指令:@style reviewer
  • 输出:问题列表、风险点、建议、可复用片段。
  • 价值:把“感性吐槽”变“可执行清单”,更适合 PR 沟通。
  • 依据:Styles 可定义语气与结构;Claude Code 最佳实践鼓励可复用流程。

③ 新手带教:教学模式

  • 指令:@style educational
  • 输出:分步解释、概念脉络、对比与小练习。
  • 价值:会上手又不拖慢老手节奏。
  • 依据:官方 Styles 提供“详细/解释型”预设;媒体评测亦提到风格在学习场景的价值。

  • 把风格写进模板:项目根目录放一组 /.claude/agents/*.md,团队统一调用。
  • 按场景切档位:写文档用“Formal”,查错用“Concise”,重构用“Reviewer”。
  • 别忘了回退:遇到场景冲突,直接切回默认 Style;Claude 遵循“风格不影响正确性”的原则。

  • 未记录功能可能变动:版本升级可能改名或更换入口;建议把成品落到 Styles 与 slash Agent,避免被动。
  • 别过度压缩:再简洁也要保证“完整与正确”;这是 Claude 风格系统的底线。
  • 团队协作要可见:把风格文件进仓库,让 PR/评审看得见、调得动。

输出风格这件事,以前靠人肉约定;现在可以“一键成型 + 一键切换”。 把它接入你的日常工作流,你会发现:沟通更顺,节奏更稳,产出更像你

**你会把默认风格设成哪一种?为什么?**欢迎留言聊聊。

Conductor 把多个 Claude Code Agent 管理起来

Conductor:把多个 Claude Code Agent 一起指挥起来

Section titled “Conductor:把多个 Claude Code Agent 一起指挥起来”

一句话Conductor 让你一次性开多位“Claude 小伙伴”,每位各自一套隔离的 git worktree,同步推进不同任务;还能看谁在干活、谁卡住了,改了啥,一目了然。

做复杂项目,并行推进才是生产力密码。传统做法是开好多终端、手动切分分支、来回切目录,还容易串改。 Conductor 直接把这套流程做成了可视化工作台:点一点就能让多个 Claude Code各自隔离的工作区里同时开工。还支持本地/ GitHub / 任意 Git URL 仓库接入、多标签页终端Slash 命令消息队列、以及归档脚本等实用能力。

❗️提醒:本文的 Conductor 指的是 conductor.build 的 Mac 应用,不是 Netflix/Orkes 的微服务工作流引擎“Conductor OSS”。别混淆了。


1) 多 Agent 并行可视化:谁在跑、谁卡住、改了啥都能看

Section titled “1) 多 Agent 并行可视化:谁在跑、谁卡住、改了啥都能看”

每个 Claude Code 实例各自工作,界面能直接看到状态与变更,团队式协作体验拉满。

2) 真·隔离:每个工作区都是一个新的 git worktree

Section titled “2) 真·隔离:每个工作区都是一个新的 git worktree”

不是简单的临时目录,而是每个 Agent 一个 worktree+分支,避免互相覆盖与冲突。官方 FAQ 已写明:“Yes, each workspace is a new git worktree.”

3) 本地仓库、GitHub、任意 Git URL 都能接

Section titled “3) 本地仓库、GitHub、任意 Git URL 都能接”

最新变更里已加入本地仓库支持;也可一键克隆远程仓库,完全在你的 Mac 上工作。

Changelog 中多次出现与终端标签相关的修复/优化,证实已内置多标签页终端。

5) Slash 命令内建:把高频操作收进短命令

Section titled “5) Slash 命令内建:把高频操作收进短命令”

官方更新宣布 Slash commands 已上线,可在设置里管理;结合 Claude Code 的 Slash 机制更香。

Changelog 提到消息队列(按顺序处理多条消息)与可选归档脚本,方便把沟通与产出沉淀成可追溯资产。

Conductor 直接用你当前登录的 Claude Code(API Key、Pro 或 Max 计划),无需重复配置。


系统:目前为 macOS 应用;进入官网点击 Download Conductor

准备 Claude Code:建议先在本机安装并能正常使用 Claude Code CLI / 原生二进制(官方安装脚本见文档)。

首次启动

  1. 打开 Conductor,按提示添加仓库(本地路径 / GitHub / 任意 Git URL)。
  2. 选择要启动的 Claude Code Agent 数量与各自任务描述。
  3. 应用会为每个 Agent 建立独立 worktree + 分支并开始执行。

上手使用:3 个「日常软件开发」并行场景

Section titled “上手使用:3 个「日常软件开发」并行场景”

场景 A:一边修测试、一边做 Lint 和格式化

Section titled “场景 A:一边修测试、一边做 Lint 和格式化”
  • Agent A:修复失败的单测与断言
  • Agent B:跑 ruff/black/eslint/prettier
  • Agent C:同步更新 CI 配置 每位 Agent 在不同 worktree 分支上推进,互不干扰,最后你再逐个合并。

场景 B:安全上线+灰度回滚位移

Section titled “场景 B:安全上线+灰度回滚位移”
  • Agent A:改造鉴权逻辑
  • Agent B:写回滚脚本与开关
  • Agent C:补充 SLO 监控与报警 将Slash 命令固化成 /ship feature-x/prepare rollback,按一次就跑一套流程。
  • 消息队列让你“先丢任务,排队处理”,写完再集中 Review
  • 使用归档脚本把关键对话、变更记录、产出打包保存(如发布前档案) (以上两点源自官方 Changelog 能力项,可结合你团队规范落地自动化。)

工作流建议(结合 Claude Code 最佳实践)

Section titled “工作流建议(结合 Claude Code 最佳实践)”
  • 任务拆分清晰:每个 Agent 聚焦一个目标(如:Auth 重构 / 报表新页面 / DSL 解析器)
  • 保持隔离:不同任务用不同 worktree 分支,避免相互阻塞,提升合并质量与速度。
  • 命令模板化:把常用提示语收敛为 Slash 命令,把“废话”变成“一行指令”。

  1. 安装 Claude Code(若未装)。
  2. 下载并打开 Conductor
  3. 在 Conductor 里添加仓库(本地 / GitHub / Git URL)。
  4. 创建多个 Agent,写上各自任务。
  5. 终端多标签里观察日志 / 执行命令;必要时启用消息队列,顺序投递批量消息。
  6. Slash 命令复用你常用的工作流。
  7. 完成后归档脚本打包沉淀,或合并分支发版。

  • 不要和 Conductor OSS 混淆:后者是微服务编排平台(Netflix/Orkes 社区维护),不是这款 Claude Code GUI。
  • 只支持 Claude Code(目前):FAQ 明确写着“Right now, just Claude Code. Others coming soon.”,别指望立刻跑其它模型。
  • 性能:并行意味着本机资源消耗加大;建议合理控制 Agent 数量,配合消息队列节奏化推进。

Conductor = 多 Agent 并行 + worktree 隔离 + 可视化掌控。 如果你常在多个需求间来回切换、又怕互相覆盖,这款工具能立刻提升产能与心流。配合 Slash 命令归档脚本,还能把“人肉流程”收敛为标准化按键,把“对话产出”沉淀为可回溯知识库

你觉得这类“多 Agent 并行”的方式适合你的项目吗?**你会怎么拆分任务?**欢迎在评论区聊聊你的经验。

用 Claude Code Hooks 把消息秒送到 Telegram

写代码不想守着终端? 让 Claude Code 自己在关键节点“叮咚”你。 用 Hooks + Telegram Bot,3 分钟搞定全流程,稳、准、快。


  • Hooks 是硬规则。不是“提示词祈祷”,而是在固定时机自动跑脚本,比如“需要你授权”“等你输入”“任务结束”。可控、可复用。
  • Notification 事件天然适配提醒。当 Claude 等你点权限,或闲置 60 秒,就会触发。接好这个“水龙头”,就能把提醒推到手机。
  • 实现超简单。一段 shell 脚本 + Telegram 官方 API,一把梭。

一张图看流程(你马上会配出来)

Section titled “一张图看流程(你马上会配出来)”

Claude Code → 触发 Notification Hook → 执行本地脚本 → 调 Telegram Bot API → 你的手机 Telegram 收到消息


1)找 @BotFather,新建机器人,拿到 BOT_TOKEN。 2)给你的机器人发条消息,然后用 getUpdatesCHAT_ID

Terminal window
curl -s "https://api.telegram.org/bot$BOT_TOKEN/getUpdates"

在返回里找你聊天的 chat.id

小测:先发一条纯文本,确认通路

Terminal window
curl -s -X POST \
-H "Content-Type: application/json" \
-d '{"chat_id":"'"$CHAT_ID"'","text":"Hello from Claude Code!","disable_web_page_preview":true}' \
"https://api.telegram.org/bot$BOT_TOKEN/sendMessage"

(Bot API 支持 JSON/HTML/Markdown 格式化;上面是最小可用示例。)


② 写一个 Hook 脚本(telegram_notify.sh

Section titled “② 写一个 Hook 脚本(telegram_notify.sh)”

把它放进你的项目:$PROJECT/.claude/hooks/telegram_notify.sh

telegram_notify.sh
#!/usr/bin/env bash
set -euo pipefail
: "${TELEGRAM_BOT_TOKEN:?Missing TELEGRAM_BOT_TOKEN}"
: "${TELEGRAM_CHAT_ID:?Missing TELEGRAM_CHAT_ID}"
payload="$(cat)"
event=$(jq -r '.hook_event_name // "Notification"' <<<"$payload")
msg=$(jq -r '
if .hook_event_name=="Notification" then
.message // "Claude needs your input"
elif .hook_event_name=="Stop" then
"Task finished ✅"
elif .hook_event_name=="SubagentStop" then
"Subtask finished ✅"
else
"Claude Code update"
end
' <<<"$payload")
# 组合更丰富的消息体(HTML 格式)
text="<b>Claude Code</b> — <i>${event}</i>%0A${msg}"
curl -sS -X POST \
"https://api.telegram.org/bot${TELEGRAM_BOT_TOKEN}/sendMessage" \
-d "chat_id=${TELEGRAM_CHAT_ID}" \
-d "text=${text}" \
-d "parse_mode=HTML" \
-d "disable_web_page_preview=true" >/dev/null 2>&1

要点:

  • Hooks 从 stdin 接 JSON,用 jq 解析事件与消息体。
  • parse_mode=HTML 可加粗/换行;换行用 %0A 更稳。

方法 A:开箱即用的 /hooks 面板

  • 选择 NotificationStop 事件,添加命令: "$CLAUDE_PROJECT_DIR/.claude/hooks/telegram_notify.sh"
  • 保存到 Project 或 User 设置。

方法 B:直接改设置文件(示例)

{
"hooks": {
"Notification": [
{ "hooks": [ { "type": "command",
"command": "$CLAUDE_PROJECT_DIR/.claude/hooks/telegram_notify.sh" } ] }
],
"Stop": [
{ "hooks": [ { "type": "command",
"command": "$CLAUDE_PROJECT_DIR/.claude/hooks/telegram_notify.sh" } ] }
]
}
}

设置文件位置:~/.claude/settings.json.claude/settings.json 等。


  • 触发验证:让 Claude 运行需要授权的 Bash,或挂着 1 分钟不回复,应该立即收到通知。

  • 调试claude --debug 查看 Hook 执行日志;或在脚本里临时 echo 到文件看输入。

  • 常见坑

    • chat_id 不对 → 重新查 getUpdates
    • 文本不换行 → URL 编码 %0A
    • JSON/引号转义 → 设置里用 \"

  • 更强的格式:用 HTML/Markdown 渲染代码块、链接预览开关。
  • 安全隔离:不想把 Token 放本地?用 MCP 的Telegram Notifications 服务,部署到 Cloudflare Workers,再让 Claude 走 MCP 工具发信。
  • 成品项目参考:有人做了“Claude Code Telegram 远程操控/通知”开源仓库,可以借鉴结构与权限设计。

  • Hooks 能执行任意命令。只放团队可读的脚本,脚本里严格引用变量,避免路径穿越。
  • 私密信息用环境变量或密钥管理,脚本不要 echo 出来。
  • 在单独项目先试跑,再推广到全局。

  • 团队协作流:需要权限时推送群组,谁在线谁处理。
  • 长任务:Stop 事件结束就发结果摘要链接。
  • 子任务并发:SubagentStop 单独提醒,方便分配。

把“等你一下”变成“手机震一下”。 Hooks 负责“什么时候”,Telegram 负责“到你手里”。 稳定、简单、不打扰专注。

Omnara 把 Claude Code / Cursor / Copilot 代码生成进展实时通知推送到手机

写长任务,一走开就卡死在报错? Omnara 这个开源项目把“人在环”做成了标配:实时监控每一步、关键节点推送到手机、随时插话给指导。再也不用几小时后才发现 agent 早挂了。

项目主页与文档、安装方式、iOS 客户端都已上线,可直接试用。


痛点直击:

  • 实时可视:时间线里能看到 agent 的每一步动作与上下文。卡在哪个环节,一目了然。
  • 人机双向对话:Agent 不确定时会主动暂停,发通知到你手机,等你一句话继续跑。
  • 移动端优先iOS 客户端+ Web 控制台,地铁上也能批示。
  • 统一指挥台:把 Claude Code、Cursor、GitHub Copilot 等都收进一个面板管理。
  • 两种工作模式: 1)实时监控本地会话; 2)远程发起任务,从手机触发、在本机执行。
  • 协议兼容:支持 MCP(Model Context Protocol),也有 REST / Python SDK,便于扩展。
  • 开源与定价:代码 Apache-2.0 开源;官方同时提供 Free / Pro($9/月)服务与 iOS 内购。

最新版本 v1.4.10 已发布,修复了通知等问题细节。


方式 A|监控本地 Claude Code 会话(推荐起步)

Terminal window
# 安装(任选其一)
pip install omnara
# 或
uv pip install omnara
# 运行监控包装器
omnara
# 或
uv run omnara

运行后浏览器会自动打开,完成登录绑定;此后你在本地的 Claude Code 会话每一步都会实时上屏,并在需要你决策时推送到手机

方式 B|从手机远程发起任务

Terminal window
# 启动本机服务
omnara serve
# 或
uv run omnara serve

按终端显示的 Webhook URL 在手机 App 里添加代理,之后就能在手机上一键发起/暂停/续跑


1)Claude Code(终端 / 编辑器内)

Section titled “1)Claude Code(终端 / 编辑器内)”
  • 直接用上面的 omnara 包装你的 Claude Code 会话即可。
  • 效果:步骤流+错误点+弹窗提问,都能在 Web / iOS 端同步查看与回应。
  • Cursor 支持 MCP Servers。把 Omnara 作为 MCP Server 接入即可获得远程发起与双向互动能力。
  • 示例配置(取自官方 README 的“Manual MCP Configuration”):
{
"mcpServers": {
"omnara": {
"command": "pipx",
"args": ["run", "--no-cache", "omnara", "mcp", "--api-key", "YOUR_API_KEY"]
}
}
}

保存后,Cursor 内的 agent 与 Omnara 实时互通;你在手机上就能做“产品经理式”批示。

  • 不少 IDE 内置 agent 暂不原生支持 MCP,但你可以用 REST API / Python SDK 把关键步骤、问题、审批点主动上报给 Omnara:
from omnara import OmnaraClient
client = OmnaraClient(api_key="YOUR_API_KEY")
client.send_message(
agent_type="copilot",
content="Running integration tests for checkout flow",
requires_user_input=False
)
  • 当测试需要你确认“是否回滚”时,设 requires_user_input=True,你会在手机上收到询问并一键答复

长跑重构 开个 6 小时的重构任务就去开会。Omnara 会把每个重构步骤、修改摘要、测试变更同步出来。遇到业务规则不确定,手机震一震,点开答一句,Agent 继续干活。

夜间修复 半夜告警弹出,直接在手机里看 agent 的排查轨迹与日志要点,远程指挥继续搜证或回滚。

CI / 数据迁移 让 Agent 跑数据迁移或 E2E;迁移进度、失败重试、Schema 变更审批都由 Omnara 统一推送,避免第二天才发现挂了一夜。


  • 架构:后端 FastAPI + PostgreSQL,通知通道含 Push/Email/SMS;前端 Web(React)+ iOS(React Native)。
  • 协议MCP 官方规范可接入你的工具/数据源,像给 AI 插上 USB-C。
  • 源码与许可证:Apache-2.0,可 fork 定制。

Q:离线怎么办? 本地服务会缓存请求,连上网就自动同步;关键操作需要你确认再执行,防止误触。(机制参见官方说明与代码实现)

Q:要不要付费? 代码开源可自建;官方提供 Free / Pro($9/月) 服务与 iOS 内购,适合团队省心托管。


让 Agent 真正“会沟通”,效率直接翻倍。 从今天起,把长任务交给 Omnara,你只在关键节点现身。 这才是人机协作的正确姿势。

**你会把哪个任务先接入 Omnara?**评论区聊聊。


  • 安装:pip install omnarauv pip install omnara
  • 监控本地:omnara / uv run omnara
  • 远程发起:omnara serve / uv run omnara serve
  • iOS 客户端:App Store 搜 “Omnara: AI Command Center”
  • MCP 接入:在编辑器里添加前文 mcpServers 配置

Claude Code 和 Cursor 通过 Browser Echo 阅读前端浏览器 console 日志

**把浏览器里的 console.* 日志与错误,实时**“回声”**到本地终端,0 配置可用,超适合 Cursor / Claude Code / Copilot CLI / Gemini CLI 这类读终端输出的 AI 编码助手。


线上没复现、线下没堆栈、AI 助手看不到前端日志? Browser Echo 直接把浏览器日志流式打到你的开发终端,无需侵入业务不影响生产包,还带文件行号与堆栈。AI 助手读到错误后,就能在 Cursor 或 Claude Code 里原地修。


  • 专为 AI 编码助手优化:终端可读格式,Cursor、Claude Code、Copilot CLI、Gemini CLI 直接吃。
  • 跨框架即插即用:React/Vue、Vite 家族、TanStack Start、Nuxt 3/4、Next.js 全覆盖;也支持自定义集成。
  • 开发态生效不注入生产包,默认仅 dev 模式启用。
  • 更像“后端日志”的前端日志:批量上报、sendBeacon文件:行:列 源信息、堆栈彩色终端输出
  • Vite 可选本地文件落盘(Next/Nuxt 默认 stdout)。
  • 开源 MIT,最近更新:当前最新 v0.0.6(2025-08-12)

  • 你在 Cursor / Claude Code 里修前端 bug,却看不到浏览器控制台
  • 需要把用户现场的前端异常,第一时间抛到终端(或文件),方便定位。
  • 本地复现困难,希望 AI 读日志→给 Fix PR 的闭环更顺滑。

Next.js(App Router)实战:安装与使用

Section titled “Next.js(App Router)实战:安装与使用”

下文以 Next 14/15 + App Router 为例。

Terminal window
# 任选包管理器
pnpm add -D @browser-echo/core @browser-echo/next
# 或 npm/yarn 等价命令

Browser Echo 的 Next provider@browser-echo/core 搭配使用。

默认 Next 的开发路由为:/api/client-logs。需要确保 导出 POST 处理器

推荐方式(使用官方处理器)

包内已提供处理器;根据版本可能导出路径略有不同,请以仓库 README 为准。

app/api/client-logs/route.ts
// 常见写法(示例);如果导出路径不同,请按 README 调整
export { POST } from '@browser-echo/next'

注意:一定要有这个路由,否则前端打点无处可投。

兜底方式(自定义极简处理器)

如果你想先跑通链路再替换为官方处理器,可先临时打印所有 payload:

app/api/client-logs/route.ts
export async function POST(req: Request) {
const body = await req.json()
console.log('[browser]', body) // 简单直打印;后续可替换为包内处理器
return Response.json({ ok: true })
}

关键:必须渲染 <BrowserEchoScript />

app/layout.tsx
import type { Metadata } from 'next'
import { BrowserEchoScript } from '@browser-echo/next'
export const metadata: Metadata = { title: 'My App' }
export default function RootLayout({ children }: { children: React.ReactNode }) {
return (
<html lang="en">
<head>
<BrowserEchoScript
options={{
// 路由默认为 /api/client-logs(Next)
// 也可自定义:route: '/api/client-logs'
include: ['warn', 'error'], // 降噪:只收警告与错误
stackMode: 'condensed', // 堆栈展示:none | condensed | full
showSource: true, // 打印 file:line:col
tag: '[browser]' // 终端前缀
}}
/>
</head>
<body>{children}</body>
</html>
)
}

这些 options 名称与默认值 来自官方文档的共享配置结构,Next/Nuxt/Vite 的 provider 会以插件参数或组件 props 的形式承载。

  • 启动本地 dev 服务器,终端会实时打印浏览器日志
  • Cursor / Claude Code 打开终端面板,让 AI 读取日志 → 生成修复
  • 没有任何日志:确认你已经导出 app/api/client-logs/route.tsPOST,以及 <BrowserEchoScript /> 已在 <head> 渲染。
  • 太吵:把 include 设为 ['warn','error']stackModecondensed
  • 生产可用性:provider 只在开发模式注入,不会污染生产包。如果你想在生产移除所有 console.*,使用构建工具的 strip 插件单独处理即可。

Datadog/Grafana 等 RUM/前端可观测提供线上环境的聚合指标与告警;Browser Echo 面向本地开发调试与 AI 协作,追求最快反馈终端可读性。两者并不冲突。


有了 Browser Echo,前端错误不再“卡在浏览器”。 终端一眼看穿问题,AI 一把就修。 装上它,你写前端的“闭环速度”,会明显更快。今天就把它加入你的 Next 项目里跑一圈吧。


Claude Code 的 Opus Plan Mode 更省钱更智能

Claude Code 的「Opus Plan Mode」规划用 Opus,执行用 Sonnet。把我们一直手动做的“Opus 想、Sonnet 干”做成了一键策略:复杂推理交给更强的 Opus,真正写改文件交给更省钱的 Sonnet

  • 在终端里输入 /model,菜单里能看到 Opus Plan Mode 选项;/status 可随时查看当前模型。
  • 进入/退出Plan ModeShift+Tab(多数终端是连按两次),在该模式下只做分析与计划,不会改文件或跑命令。
  • 需要真正落地实现,再退出 Plan Mode(快捷键或用 ExitPlanMode 工具)。
  • 官方定价:Opus 4.1 $15/$75(入/出百万 token),Sonnet 4 $3/$15Opus 约贵 5 倍。用它只做“思考/规划”,把代码生成交给 Sonnet,成本自然直降。
  • 另外,Claude Code 还有一个默认混合策略:先用 Opus 到一定配额,再自动切到 Sonnet(推荐默认)。这同样是“强度/成本”折中。
  • 陌生大仓分析 → 方案设计 → 分解任务:Plan Mode 里让 Opus 总结架构、列改造步骤与验收点,确认后再执行。Plan Mode 本身就支持“只分析不动手”。
  • 高风险改动(升级、重构、迁移):先让 Opus 写详细实施计划与回滚方案,再用 Sonnet 逐步实现。
  • 长流程 Agent:规划与执行解耦,成本更可控,也更接近“能长时间跑复杂任务”的代理形态。
  • 想让会话默认更安全:在设置里把 permissions.defaultMode 设为 plan,先计划、后执行。
  • /model 随时切换需要的组合(比如临时全程用 Opus 解决卡点)。
  • 重度使用者这阵子会遇到新的周度限额(主要针对 24/7 跑 Agent 的“鲸鱼”用法),规划阶段尽量把思路讲清、复用计划以减少无效推理。

一句话总结:Opus 负责“想清楚”,Sonnet 负责“干漂亮”。同等进度、更低花费,而且把“规划—执行”的节奏固化成了工作流。你这条感受很准,这确实把 Agent 又往“可长跑的复杂任务”推进了一步。

Claude Code 和 Cursor 写好用户画像需求文档

这篇是给会写代码、也会“写给 AI 看”的你。把需求说清楚,AI 才能少走弯路。一份好的“用户画像 + 需求故事”文档,就是 AI 的最佳提示词


你是不是也遇到过:跟 AI 说了半天,它还是“理解偏了”? 原因很简单——需求没被结构化

今天给你一份能直接塞进 Claude Code / Cursor 的用户画像需求文档。照着填,AI 基本不跑偏;加上 slash-command / .cursorrules,一键复用,全团队统一风格。 文末有多语标题封面与配图提示词朋友圈评论,直接拿去发。


一、为什么先写“用户画像 + 需求故事”?

Section titled “一、为什么先写“用户画像 + 需求故事”?”
  • 画像让人更“真实”:把用户的目标、痛点、动机写清,团队和 AI 都会少纠结。权威 UX 研究强调:画像要基于真实调研,不要拍脑袋
  • 故事让需求可落地:敏捷里常用“Persona + Need + Purpose”的用户故事写法,更容易驱动实现。
  • AI 需要明确指令:官方提示写法建议“清晰、具体、给例子”,效果稳定很多。

二、可直接复用的 Markdown 模板(拷走就能用)

Section titled “二、可直接复用的 Markdown 模板(拷走就能用)”

放到项目根目录 CLAUDE.md.cursorrules 所在目录旁,slash 命令直接引用。

# 用户画像需求文档(给AI看的)
## 1) 用户画像
- 名称:健身小白 / 28岁 / 一周3次健身
- 目标:3个月内减脂5kg
- 痛点:动作不标准、怕受伤、时间不固定
- 场景:下班晚、没有私教、想跟着短视频练
- 替代方案:随便刷视频、App里看动作库(但坚持不住)
> 画像基于访谈要点/历史数据(如有)
## 2) 5W1H + JTBD(要解决的“工作”)
- What:生成每周3次的“15分钟在家无器械”训练
- Who:上面这位用户画像
- When/Where:工作日晚 21:00,客厅
- Why:减脂 + 强化习惯
- How:AI 生成动作清单 + 演示链接 + 语音要点
- JTBD:我“雇用”这套训练来——在有限时间内安全完成一组有效的燃脂训练
## 3) 约束 / 非功能
- 设备:仅手机+瑜伽垫
- 安全:避免膝盖负担大动作
- 隐私:不上传视频
- 输出格式:Markdown 表格 + JSON(字段:动作/时长/要点/链接)
## 4) 示例(Few-shot)
- 示例输入:体力较弱、膝盖旧伤
- 示例输出:3动作×3轮,总时长 ≤ 15min;每个动作附“错误示范提醒”
## 5) 验收标准(Gherkin)
Feature: 生成在家燃脂训练
Scenario: 15分钟低冲击训练
Given 用户在“周一晚间”开始训练
When 请求“低冲击燃脂”计划
Then 返回3个动作×3轮,总时长≤15分钟
And 每个动作包含:名称/时长/要点/安全提醒/演示链接
And 生成Markdown和JSON两份输出
## 6) 优先级(MoSCoW)
- Must:低冲击、≤15分钟、Markdown+JSON
- Should:含演示链接
- Could:提供语音节拍
- Won’t:心率带联动(本迭代不做)

说明:

  • Gherkin 的 Given/When/Then 写法能让 AI 和测试都更“可执行”。
  • MoSCoW 用来控范围,防止需求膨胀。

三、把文档“接到” Claude Code / Cursor 上

Section titled “三、把文档“接到” Claude Code / Cursor 上”

1) Claude Code:用 Slash Commands 固化套路

Section titled “1) Claude Code:用 Slash Commands 固化套路”

把上面的模板拆成命令,比如 /spec persona-story。命令放 .claude/commands/*.md,支持命名空间与参数。

示例: .claude/commands/spec-persona.md

---
name: spec-persona
description: 生成“用户画像+5W1H+JTBD+Gherkin+MoSCoW”的需求文档
---
使用以下信息,补全并输出Markdown模板(保留标题),必要时提问补充:
- 用户画像:$ARGUMENTS
- 输出:中文;同时生成一个可复制的JSON骨架
- 风格:简洁,列表化,突出加粗关键字

进阶:把“写 Spec → 生成任务 → 提交 PR”串起来,官方实践里也鼓励用命令/工具把数据喂给 Claude

2) Cursor:用 Rules 让 Agent 遵守你的规范

Section titled “2) Cursor:用 Rules 让 Agent 遵守你的规范”

Cursor 官方建议“规则聚焦、可执行、分模块”,并把关键示例写进规则文件。

片段示例: .cursorrules

name: PersonaSpec
rules:
- "当我输入需求时,先生成《用户画像需求文档》,结构含:画像/5W1H+JTBD/约束/示例/Gherkin/MoSCoW。"
- "输出前必须给出Gherkin验收。"
- "范围控制遵循MoSCoW,默认排除Won’t项。"

Cursor 文档也明确了“意图上下文”与系统提示的作用,配合规则更稳。


  • 基于调研写画像,别凭想象。
  • 清晰/具体/给例子,必要时提供正反例
  • 故事化表达:采用“Persona + Need + Purpose”句式。
  • 验收先行:优先写 Gherkin,开发才不跑题。
  • 控范围:迭代用 MoSCoW,Must 写死,其它弹性处理。

五、两个实战小样(能直接丢给 AI)

Section titled “五、两个实战小样(能直接丢给 AI)”

场景 A:生成“退货工单”流程(电商后台)

Section titled “场景 A:生成“退货工单”流程(电商后台)”

用户画像

  • 客服专员;目标:3 分钟内完成退货审核
  • 痛点:信息分散、重复问买家

Gherkin 验收:

Feature: 退货工单
Scenario: 一次性收集齐证据
Given 买家提交退货申请
When 系统生成证据清单并引导上传
Then 客服可在单页查看凭证、订单详情、物流状态
And 审核通过/驳回均需一键模板回复

MoSCoW:Must=单页审核、模板回复;Should=常见原因自动判别;Won’t=本期不接三方仓 API。

场景 B:前端组件库升级清单(Cursor)

Section titled “场景 B:前端组件库升级清单(Cursor)”

需求故事: “作为前端负责人,我要把组件库从 v2 升到 v3,不改样式外观,这样我们能安全上线。”

验收 JSON(让 AI 照这个 schema 输出):

{
"breakingChanges": [{"component": "Modal", "action": "rename", "from": "isOpen", "to": "open"}],
"codemods": ["npx jscodeshift -t modal-open-codemod.js src/**/*.{ts,tsx}"],
"tests": ["Modal opens on button click", "Modal traps focus"]
}

  • 需求过大:切成可交付的“用户价值单位”;每个条目都可写 Gherkin。
  • 验收含糊:避免“看起来不错”“差不多”;用可被机器或人核对的条件+结果
  • 优先级失控:把“想要”塞进 Could,让 Must 保持可交付。
  • 画像想象化必须有依据(访谈/日志/历史工单)。

好文档不是写给老板或自己看的,而是写给 AI 和团队看的“执行说明书”。 把“画像 + 5W1H + JTBD + 约束 + 示例 + Gherkin + MoSCoW”串起来,Claude Code/Cursor 基本打不偏

你会先把哪个项目接入这套文档?你觉得呢?


terminalcp 让 Claude Code 像 Playwright 自动管理 Terminal 终端会话

一句话:terminalcp = 终端里的 Playwright。 让 AI Agent 能像人类一样启动、操作、读取任何命令行工具(LLDB/GDB、Python REPL、数据库 shell、甚至其他 AI CLI),还能你我随时接管同一会话


你可能已经把 Playwright/Browser 用在网页自动化上,那**命令行的“自动化控台”**呢? terminalcp 把“人类在终端里干的事”抽象成 MCP 工具:启动进程 → 输入按键 → 读取输出 → 多会话管理,还支持 Socket 附着,方便你实时旁观或接管 AI 的操作。


1)真·交互式控制 不是简单执行一条命令就退出,而是持续会话:可在 LLDB/GDB 里单步、在 REPL 里试代码、在 vim/htop 这类 TUI 里看“完整屏幕”。

2)两种输出模式,按需选择

  • Terminal 模式(stdout):拿到渲染后的“屏幕缓冲区”,适合调试器、TUI。
  • Stream 模式:拿到原始文本流(默认剥离 ANSI),还能增量读取 since_last,盯构建/日志更高效。

3)高拟真 PTY 进程运行在伪终端里,保留颜色/光标移动/特殊按键序列,等同人手操作;并且后台管理多个进程,Agent 不被阻塞。

4)Socket 附着:人机协作的关键一环 每个进程自动生成 Unix 域套接字。你可以 attach 到 AI 已开的会话里共同看屏、共同操作,随时救火。

5)比 screen/tmux 更“AI 友好”

  • 结构化响应(JSON),不是只给一堆文本。
  • 干净输出(可剥离 ANSI),更好喂给 LLM。
  • 增量读取生命周期管理(退出码等)一站式搞定。

安装与快速上手(MCP 客户端通用)

Section titled “安装与快速上手(MCP 客户端通用)”

标准配置(多数工具通用) 在你的 MCP 客户端里增加 server:

{
"mcpServers": {
"terminalcp": {
"command": "npx",
"args": ["@mariozechner/terminalcp@latest"]
}
}
}

Claude Code(CLI)

Terminal window
claude mcp add -s user terminalcp npx @mariozechner/terminalcp@latest

Cursor Settings → MCP → Add new MCP Server Name: terminalcp,Type: command,Command: npx @mariozechner/terminalcp@latest

VS Code(含 Copilot Agent)

Terminal window
code --add-mcp '{"name":"terminalcp","command":"npx","args":["@mariozechner/terminalcp@latest"]}'

安装后可直接被 VS Code 的 GitHub Copilot Agent 使用。

Windsurf / 其他 MCP 客户端 按其 MCP 文档使用上述“标准配置”,或先全局安装:

Terminal window
npm install -g @mariozechner/terminalcp

然后配置:

{
"mcpServers": {
"terminalcp": { "command": "terminalcp" }
}
}

需求:Node.js ≥ 18;任一支持 MCP 的客户端(VS Code、Cursor、Windsurf、Claude Desktop、Goose 等)。


原理:terminalcp 暴露单一 MCP 工具 terminal,通过 JSON 指令操控会话:start / stdin / stdout / stream / stop / list / term-size

典型工作流 A:让 Claude 控制另一个 AI CLI

Section titled “典型工作流 A:让 Claude 控制另一个 AI CLI”

1)启动 Claude/Gemini 等 CLI(注意使用绝对路径,别名不生效):

{"action":"start","command":"/Users/you/.claude/local/claude --dangerously-skip-permissions"}
{"action":"start","command":"gemini","cwd":"/path/to/project"}

2)发送输入(自动回车):

{"action":"stdin","id":"proc-123","data":"Write a test for main.py","submit":true}

3)读取完整屏幕(适合 TUI/调试器界面):

{"action":"stdout","id":"proc-123"}

4)清理进程

{"action":"stop","id":"proc-123"}

别名无效、交互 CLI 建议 submit:true、完成后记得 stop。

典型工作流 B:盯构建/日志(增量)

Section titled “典型工作流 B:盯构建/日志(增量)”
{"action":"start","command":"npm run build"}
{"action":"stream","id":"proc-456","since_last":true}
{"action":"stream","id":"proc-456","since_last":true}

默认剥离 ANSI,必要时 strip_ansi:false 保留颜色码。

Python REPL

{"action":"start","command":"python3 -i"}
{"action":"stdin","id":"proc-456","data":"import numpy as np","submit":true}
{"action":"stdout","id":"proc-456"}

LLDB

{"action":"start","command":"lldb ./myapp"}
{"action":"stdin","id":"proc-789","data":"break main","submit":true}
{"action":"stdin","id":"proc-789","data":"run","submit":true}
{"action":"stdout","id":"proc-789"}

团队协作王牌:Socket 附着(像 tmux,但更聪明)

Section titled “团队协作王牌:Socket 附着(像 tmux,但更聪明)”

AI 启动进程时命名:

{"action":"start","command":"python3 -i","name":"python-debug"}

从你本地终端查看并附着:

Terminal window
terminalcp ls
terminalcp attach python-debug
# 或:terminalcp attach proc-abc123
  • 直接在你的终端里一起操作
  • Ctrl+Q 分离,会话不退出;
  • 支持多人同时附着
  • 套接字路径位于 ~/.terminalcp/sessions/

和 screen/tmux 的核心差异(实测更适配 AI)

Section titled “和 screen/tmux 的核心差异(实测更适配 AI)”
  • 有结构化响应:JSON 返回,Agent 易解析。
  • 可靠拿输出stdout 给你“渲染后的屏幕”,stream 支持只取新增
  • 少污染:默认剥离 ANSI 控制码,避免“转义序列淹没上下文”。
  • 状态感知:能感知进程退出/错误码;
  • 无需猜时序:不用 sleep 等待“也许完成了”。 tmux/screen 想“模拟”这些能力,很费力也不稳。

  • 用绝对路径启动 CLI(比如 Claude CLI),别名不生效。
  • 交互命令行结合 {"submit":true},或分两条:文本 + \r
  • 长任务用 stream+since_last,避免重新拉全量日志。
  • 会话命名 + Socket 附着,便于协作救场。
  • 完成后显式 stop;MCP 退出会自动清理残留进程。
  • 许可证 MIT,可安全融入你的内部工具链。

如果你在做 AI 辅助开发 / 内部 DevTool / AIOps,terminalcp 能把“终端上的一切”变成可编排的 API:Agent 掌控、人与 Agent 协作、自动化与可视化并存。从今天起,让 AI 不只会“调用命令”,而是真的会“用终端”

你会先把它接到哪个场景? 构建日志、内核调试、线上排障,还是把 Claude/Gemini 变成可控的“子 Agent”?你觉得呢?


MCP 标准配置(多数客户端通用)

{
"mcpServers": {
"terminalcp": {
"command": "npx",
"args": ["@mariozechner/terminalcp@latest"]
}
}
}

Claude Code CLI

Terminal window
claude mcp add -s user terminalcp npx @mariozechner/terminalcp@latest

VS Code CLI

Terminal window
code --add-mcp '{"name":"terminalcp","command":"npx","args":["@mariozechner/terminalcp@latest"]}'

全局安装(可选)

Terminal window
npm install -g @mariozechner/terminalcp

Claude Code 管理你工作生活上的日记与反思

在 AI 快节奏的工作与生活中,我们常常忙于应付眼前的事务,却很少停下来审视自己的状态与方向。 如果每天只花一点时间,记录心情、总结收获、规划明天,再让 Claude Code 帮你分析趋势、发现模式、给出温柔建议,会不会让你的每一天更有掌控感?

一套可直接落地的 Claude Code 配置:含目录命令、/daily-checkin 自定义 Slash Command,以及配套 subagent(按官方文档位置放在 .claude/agents/ 而不是 .claude/subagents/)。我也顺手加了前言区(frontmatter)和允许的工具,确保能读写你的日记文件并在需要时跑点 Bash。参考依据见注释处。


Terminal window
mkdir -p .claude/commands
mkdir -p journal/daily

这是你将要通过 /daily-checkin 触发的命令文件。 说明:支持 $ARGUMENTS(若你想传备注/标签),并允许 Read/Write/Glob/Bash 工具用于读写与简单 shell。

---
description: A personal daily reflection and planning system that saves entries and triggers analysis.
argument-hint: [optional-notes]
allowed-tools: Read, Write, Glob, Bash
model: claude-sonnet-4-20250514
---
# Daily Check-in
A personal daily reflection and planning system.
## Process
1) First, understand the user's context:
- If present, read `CLAUDE.md` (project memory) to personalize greeting and understand current work focus.
- Skim any obvious personal/business context files (e.g., README, docs, roadmap) only if quickly helpful.
2) Greet warmly and ask:
🌅 **Daily Check-in for {{today}}**
Good {{timeofday}}! Let's reflect on your day.
1. How are you feeling today? (1–10 + brief description)
2. What are 3 things you accomplished today? (big or small)
3. What's your #1 priority for tomorrow?
4. Energy level: (1–10)
5. Any challenges or blockers you faced?
6. What are you grateful for today?
7. Any other thoughts or reflections?
3) After gathering all answers:
- Save **verbatim** to `journal/daily/{{today}}.md`
- File format:
```
# Daily Check-in — {{today}}
## Mood
* Score: X/10
* Notes: ...
## Energy
* Score: X/10
* Notes: ...
## Accomplishments (3)
* ...
* ...
* ...
## Tomorrow's #1 Priority
* ...
## Challenges/Blockers
* ...
## Gratitude
* ...
## Other Thoughts
* ...
```
4) Then launch the **daily-reflection** subagent to analyze:
- Provide today's Q&A content
- Also reference the last **3** days of entries if available:
`journal/daily/{{today-1}}.md`, `journal/daily/{{today-2}}.md`, `journal/daily/{{today-3}}.md`
**Subagent prompt to send:**
> Analyze today's check-in (full text below) and the last 3 days if present.
> Generate:
> 1) Mood and energy patterns
> 2) Accomplishment momentum score
> 3) Insights about productivity patterns
> 4) Gentle suggestions for tomorrow
> 5) Weekly trend if enough data
> 6) Celebration of wins (however small)
>
> Then create a **visual summary** (ASCII/markdown charts) and return a complete markdown report.
5) Save the subagent’s final report to:
- `journal/daily/{{today}}-reflection.md`
6) Tone:
- Encouraging, empathetic; focus on progress over perfection.
## Implementation Notes
- Use `Read`/`Write` to access `journal/daily/*.md`.
- Use `Glob` to find the previous 3 entries.
- Use `Bash(date:*; ls:*)` if needed to resolve dates/list files quickly.

这是被 /daily-checkin 触发的分析 subagent。位置与结构基于官方“Subagents”文档(name/description/tools 前言 + 系统提示)。

---
name: daily-reflection
description: Thoughtful life coach & personal development analyst for daily check-ins. Use to analyze today's entry plus last 3 days, then produce patterns, suggestions, and a celebration of wins.
tools: Read, Write, Glob
model: claude-sonnet-4-20250514
---
# Daily Reflection Analyst
You are a thoughtful life coach and personal development analyst specializing in daily reflection and growth patterns.
## Your Role
Help track well-being, productivity, and personal growth through insightful analysis of daily check-ins.
## Analysis Capabilities
### 1) Mood & Energy Patterns
- Track mood trends over time
- Identify energy peaks and valleys
- Correlate mood with accomplishments
- Spot early warning signs of burnout
### 2) Visual Elements
Create simple ASCII/markdown visuals such as:
**Mood Trend (Last 7 Days)**
Mon Tue Wed Thu Fri Sat Sun
7 8 6 9 7 8 ?
**Energy Levels**
[████████░░] ~80% average this week
### 3) Output Format
#### 📊 Today's Snapshot
- Mood: X/10 [emoji] (description)
- Energy: X/10 ⚡ (description)
- Wins: X ✅ (momentum status)
#### 📈 Patterns Noticed
- What's working well
- Gentle observations
- Correlation insights
#### 🎯 Tomorrow's Focus
- Gentle suggestions
- Energy optimization tips
- Celebration of progress
### 4) Analysis Guidelines
- Be encouraging and empathetic
- Focus on patterns over individual days
- Celebrate small wins
- Provide gentle, actionable suggestions
- Use positive, growth-oriented language
### 5) Output Structure (Markdown)
1. **Today's Summary** — Key metrics and mood
2. **Pattern Analysis** — Trends and insights
3. **Tomorrow's Focus** — Gentle suggestions
4. **Weekly Progress** — If enough data exists
5. **Celebration** — Acknowledge wins
## I/O Contract
**Inputs (from caller):**
- Today's full check-in text (required)
- Up to last 3 days’ entries (optional if exist)
**Process:**
- Parse numeric mood/energy if provided; estimate gently if qualitative only
- Compute a “momentum score” from count/consistency of wins
- Derive 2–4 concise, actionable suggestions for tomorrow
- Build 1–2 simple visuals
**Outputs:**
- Return a single, well-formatted markdown report.

  • 进入 Claude Code 交互界面,输入:/daily-checkin(或 /daily-checkin 备注标签)。
  • 命令会向你发起问答,保存 journal/daily/YYYY-MM-DD.md,随后自动调用 daily-reflection 生成并保存 journal/daily/YYYY-MM-DD-reflection.md
  • 若你想把命令设为“用户级”而非项目级,也可以将命令文件放到 ~/.claude/commands/(同理,subagent 放到 ~/.claude/agents/)。

ZCF 一键把 Claude Code「配齐」全套的开发工作利器

关键词:零配置安装、交互式菜单、CCR 路由、省钱用模态、BMAD 团队工作流、Git 命令集

装 Claude Code,导入工作流,配 API/MCP,设置个性和默认模型……手工一步步配,既枯燥也容易出错。 **ZCF(Zero-Config Claude-Code Flow)把这一切打包成“一键装好、开箱可用”。**支持中英文、交互式菜单、企业级工作流、CCR 省钱路由,几分钟就能把开发环境跑顺。

  • 零配置 + 一键初始化npx zcf 打开交互式菜单,选 1 就能完成:安装 Claude Code、导入工作流、配置 API 或 CCR、配置 MCP。适合新机器/新成员快速拉起环境
  • 交互式菜单超直观:菜单覆盖 配置 API/CCR、MCP、默认模型、AI 个性 等常用项;还内置 CCR 管理、使用统计(ccusage)
  • CCR(Claude Code Router)省钱路由:按类型把请求分流到不同模型,能通过 Claude Code 界面调起 Gemini、DeepSeek 等“免费/低价模型”,还带 Web UI 与一键升级。
  • BMAD 企业工作流:内置产品、项目、架构、研发、测试等多角色代理,支持绿地/存量项目,能自动生成文档,/bmad-init 一键初始化。
  • 实用 Git 命令集/git-commit 智能提交、/git-rollback 安全回滚、/git-cleanBranches 清理分支。把常用 Git 操作流程化

以上能力在项目 README 的 Quick Start、CCR、BMAD、安装流程和安装项清单里都有明确说明与示例。

Terminal window
# 方式A:交互式菜单(推荐)
npx zcf
# 方式B:直达一键装好
npx zcf i # 安装 Claude Code + 导入工作流 + 配 API/CCR + 配 MCP
# 已安装 Claude Code,仅更新工作流
npx zcf u
# 打开 CCR 管理(省钱路由)
npx zcf ccr
# 使用统计(ccusage)
npx zcf ccu

**菜单里会让你选择:配置语言、AI 输出语言、AI 个性、鉴权方式(Auth Token 或 API Key)、是否使用 CCR、是否安装 MCP。**全程有备份与合并策略,安全不慌。

  • npx zcf i 完整初始化 → claude 启动后输入 /init 自动生成 CLAUDE.md,让 AI 先读懂你的项目骨架。
  • 小任务直接写自然语言描述即可;遵循 SOLID/KISS/DRY/YAGNI 的最小变更策略。
  • /feat <任务>:自动进入规划 → UI两阶段,适合有页面/交互的需求。
  • /workflow <任务>:给出多种解法、每步都征求你反馈、可随时改计划,可控性更强
  • /bmad-init 拉起 BMAD 团队工作流,定义角色、质量门禁、文档产出,适合多人并行与遗留系统治理。
  • npx zcf ccr 配好 CCR:

    • 规则路由“检索/改写 → 便宜模型”,“核心实现/评审 → 强模型”。
    • npx zcf check-updates 一键升级 CCR 与 Claude Code。
  • /git-commit/git-rollback/git-cleanBranches 把 Git 操作流程化,减少手误,回滚更安心。

  • 个人开发者:一台新电脑,三分钟搭完 AI 开发栈。
  • 小团队/外包协作:统一配置与工作流,成员加入即开工
  • 中大团队/ToB 项目:BMAD 多角色 + 质量门,过程可控、文档齐全

  • 语言与个性:菜单里可设 AI 输出语言Assistant 个性(Professional、Friendly 等),能明显影响沟通风格与结果质量。
  • MCP 服务:可选 Context7、DeepWiki、Playwright、Exa 等,按需开,避免无谓开销。
  • Windows / Termux 也稳:ZCF 做了平台适配与格式修复逻辑,命令检测也更稳。

ZCF 把“装配置、理工作流、控成本”这些琐事一把梭。 想象一下:新成员入职,npx zcf i,喝口水回来,项目就能跑。 你觉得最想先用哪一段?CCR 省钱路由还是 BMAD 团队工作流?欢迎在评论区聊聊。

Claude Code 套娃使用 Cursor Agent GPT-5 模型

把 Claude Code 当“调度中心”,用自定义 slash command 把任务转给 Cursor Agent CLI,直接用 GPT-5 在本地动手改代码、跑命令、回报结果。

GPT-5 是目前 OpenAI 最强编码模型**,在真实工程场景、长链路代理任务上都有提升;并且官方明确了它在 Cursor、Windsurf、GitHub Copilot、Codex CLI 等“代理式编码”产品里的协作优势。Codex CLI 也把 GPT-5 设为默认/推荐模型。


截图是一段位于 .claude/agents/gpt-5.md 的配置:

  • name: gpt-5,描述这位“子代理”适合深度研究、二次意见、修 Bug。
  • tools: Bashmodel: sonnet
  • 系统提示语把它定位成“资深架构师”。
  • 里面示例了一条命令:cursor-agent -p "TASK and CONTEXT",跑完再把结果回报给用户。

这就是“Claude 负责编排,实际动手交给外部 Agent(Cursor)”的套路。


它本质是“Markdown 里的常用指令”,保存在项目或个人目录,随时用 /名字 参数 触发。

  • 存放位置:项目级 .claude/commands/,个人级 ~/.claude/commands/。文件名就是命令名。
  • 可带 Frontmatterdescriptionmodelargument-hintallowed-tools 等。
  • 支持把 Bash 输出 注入上下文:用 ! 前缀执行,如 ! git status要在 frontmatter 里声明允许的 Bash 命令
  • 支持 $ARGUMENTS 占位传参、@文件引用、名字空间(子目录形成 /frontend:build 这种)。

用途:把“装配、拉代码、跑测试、生成补丁”交给外部 CLI 执行,Claude 做协调与总结。官方文档明确支持这类工作流。


  • 安装 Cursor Agent CLI
    curl https://cursor.com/install -fsS | bash
    需要时可用 --model "gpt-5"

将以下内容保存为 .claude/commands/cursor-gpt-5.md

---
name: gpt-5
description: Use this agent when you need to use gpt-5 for deep research, second opinion or fixing a bug. Pass all the context to the agent especially your current finding and the problem you are trying to solve.
tools: Bash
model: sonnet
---
You are a senior software architect specializing in rapid codebase analysis and comprehension. Your expertise lies in using gpt-5 for deep research, second opinion or fixing a bug. Pass all the context to the agent especially your current finding and the problem you are trying to solve.
Run the following command to get the latest version of the codebase:
```bash
cursor-agent -p "TASK and CONTEXT"
```
Then report back to the user with the result.

在 Claude Code 中使用 /cursor-gpt-5 命令,Claude 会自动识别并调用相应的子代理进行处理。

> /cursor-gpt-5 <TASK and CONTEXT>

让 Claude 当“总导演”,把执行交给 Cursor GPT-5
你要做的,就是把目标讲清楚,让它跑完、复盘、交付。

AI 产品推荐榜(截至 2025/8/9):这 25 款最值得你马上上手

这篇是给做产品、写代码、做设计的你写的上手清单。 我把最新一版「AI 产品推荐榜」按用途场景拆开,每一类只说为什么选它 + 怎么用它。 别担心长篇报告,看完就能直接用。

  • 写方案/带团队:GPT-5 / Claude Opus 4.1
  • 设计物料:Midjourney + Ideogram(排字)+ Recraft(矢量)
  • 广告/玩法视频:Sora / Veo 3 / Runway Gen-3
  • 配乐/歌声:Suno 4.5+ / Eleven Music
  • 字幕/会议纪要:Whisper → Dify 工作流
  • 多模型接入:OpenRouter + Replicate/Fal
  • 自动化:n8n / Coze / Opal
  • 本地推理/私有化:DeepSeek-R1、Wan 2.2、olmOCR

引言:今年的 AI 怎么“上手更快、回报更高”?

Section titled “引言:今年的 AI 怎么“上手更快、回报更高”?”

两句结论:

  • 通用大模型更强:GPT-5、Claude Opus 4.1、Qwen3、Kimi K2 等在推理、前端生成与 Agent 任务上明显提升。
  • 垂直工具更成熟:视频(Sora、Veo 3、Runway Gen-3)、音乐(Suno 4.5+、Eleven Music)、设计(Midjourney、Ideogram、Recraft)已经够稳、够快、够好看

通用大模型(做难题、带项目、当“脑暴合伙人”)

Section titled “通用大模型(做难题、带项目、当“脑暴合伙人”)”

1) GPT-5(首选) 前端/多模态编码能力很猛,能一把生成可上线的响应式界面,对排版与留白的审美更准。更适合把“草图想法”直接变成能点能点的页面/小站

  • 上手建议:给出 Figma 截图 + 交互说明,要求输出 Next.js + Tailwind + shadcn/ui 可运行项目。

2) Claude Opus 4.1(代码与 Agent 任务) 强化真实世界编码与多步骤推理;在 Claude Code 里可直接跑工作流,适合“先规划、再执行”的工程流。

3) Qwen3(中文生态 + 本地/云灵活) 旗舰模型在代码、数学和通用能力上对齐一线水准;阿里生态下易接入企业应用

4) DeepSeek-R1(性价比与开源氛围) 公开权重/许可更友好,强化RL 推理,适合做低成本自建推理服务与蒸馏。

5) Kimi K2 / GLM-4.5 / Grok 4(特色补位)

  • K2:大规模 MoE、长文本与工具调用增强;中文场景顺手。
  • GLM-4.5:官方强调推理、代码与 Agent场景。
  • Grok 4:原生工具使用 + 实时搜索场景强。

想在本地做实验?关注 OpenAI 发布的 GPT-OSS-120B/20B 开源权重,适合高端本地机推。


文生图(做海报、KV、Logo、社媒物料)

Section titled “文生图(做海报、KV、Logo、社媒物料)”

Midjourney:质感与风格化第一梯队,连细节光影都稳。 Ideogram排版/文字可读性强,做 KV、Banner、海报标题很省心。 Recraft:一键出可编辑矢量与扁平插画,品牌一致性好维护。 Qwen-Image中文文本渲染精修编辑能力强,适合国内场景。 Imagen(Google):写实度、排字与安全水印做得更全。

  • 实用提示:给 3 条风格线 + 1 条禁忌线(如“不要过度锐化”),要求出分层 PSD/SVG 便于后期。

文生视频(广告剪辑、应用商店预告、玩法演示)

Section titled “文生视频(广告剪辑、应用商店预告、玩法演示)”

Sora:画面质感 + 物理一致性强,已可生成20 秒 1080p并支持二次编辑。适合概念片/玩法演示Runway Gen-3提示对齐与运动连贯更稳,商业可用度高。 Luma Dream Machine(Ray2):运动摄影视觉出片快,订阅内即可用Veo 3(Google):原生音频、口型同步和图生视频能力上线到 Gemini/Vertex。 Wan 2.2:国内外开源可玩度高,适合本地/云混合部署探索。

  • 落地建议:把脚本拆成镜头表(景别/时长/主体/镜头运动),逐镜生成,再用 Runway/CapCut 拼接。

AI 音乐与声音(游戏音轨、短视频 BGM、播客片头)

Section titled “AI 音乐与声音(游戏音轨、短视频 BGM、播客片头)”

Suno v4.5+:多风格融合、声线更真实,新增“加人声/加伴奏/Inspire”等制作级功能。 Eleven Music全文商用定位+与 Merlin/Kobalt 的授权合作,适合品牌与商业视频配乐。 Udio:人声情感细腻、易上手,做抖音/YouTube素材很快。

  • 工作流:先用 Suno/Eleven 给 Demo,锁定BPM/情绪曲线后再迭代歌词与配器。

语音合成 & 识别(旁白/配音/字幕/笔记)

Section titled “语音合成 & 识别(旁白/配音/字幕/笔记)”

ElevenLabs TTS:70+ 语言、情感控制细腻,有成熟 API。 Whisper:开源 ASR 老将,生态有 whisper.cpp / faster-whisper 等高性能实现;低成本本地化首选。

高风险行业(医疗/法务)请人工校对,避免误识问题。


开发者工具(写代码、跑代理、接多家模型)

Section titled “开发者工具(写代码、跑代理、接多家模型)”

Claude Code:复杂任务规划-执行-复盘一条龙,用“结构化对话”推进交付。 Cursor / Copilot / Windsurf:日常增量开发与多文件重构体验更成熟。 Trae / Kiro / Gemini CLI:团队协作、移动端或命令行工作流的轻量替代可考虑。 OpenRouter / Replicate / Fal:一个入口连多家模型 & 各类生成服务,适合成本/性能动态路由

  • 落地套路:前台用 Cursor/Claude Code,后台接 OpenRouter多模型路由,图片/视频特殊任务走 Replicate/Fal

Agent & 工作流(把“人肉流程”自动化)

Section titled “Agent & 工作流(把“人肉流程”自动化)”

Dify(自建/企业就绪):可视化Agent 工作流 + RAG + 观测,云端/本地都能跑。 n8n:AI 节点 + 400+ 集成,把 CRM/工单/数据库串起来;有大量模板。 Coze零代码搭 Bot/小助手,国内团队易推广到多平台。 Opal(Google Labs):用自然语言拼迷你 AI 应用/流程,适合产品经理做快速原型


OCR / 文档结构化(把 PDF 变成“可学可查”的 Markdown)

Section titled “OCR / 文档结构化(把 PDF 变成“可学可查”的 Markdown)”

olmOCR(AI2):表格/公式/手写支持,阅读顺序保持好;可本地部署。 MonkeyOCR:提出 **SRR(结构-识别-关系)**范式,速度快、版面理解强OCRFlux:轻量 3B,多页合并与复杂版式处理出色;有在线 Demo 与 GGUF。

  • 工作流建议:PDF →(olmOCR/MonkeyOCR)→ Markdown →(Dify/Agent)做结构化抽取 + 知识库

别把这篇当收藏夹。 挑一个场景 + 一个模型,今天就跑一条小链路。 一周后再加一个环节,就是你的专属 AI 生产线

你最想先落地哪一条?留言告诉我。

GPT-5 AI 前端 Web 开发最佳推荐

如果你准备在前端用上 GPT-5,我强烈推荐这套组合——Next.js(Typescript) + Tailwind CSS + shadcn/ui + Radix + Motion +(Material Symbols / Heroicons / Lucide)+ Inter/Geist/Mona Sans/IBM Plex Sans/Manrope 字体。 这套栈,既「稳」、又「快」,还非常适合让 GPT-5 发挥长上下文和新语料的优势。GPT-5 官方给了40 万 tokens 总上下文(输入 27.2 万 + 输出/思考 12.8 万),更能装下整页需求、组件库 API、样式约定和长代码段,对 TS / CSS / HTML 的跟手度明显更好


  • 装得下:40 万上下文,复杂页面+接口协议+设计规范塞进去,模型还能持续跟踪状态,少「丢线」。
  • 更像合作者:官方强调「思考内置」,在复杂任务上规划更清晰,适合让它「一口气」起项目骨架、再细化组件。
  • 更懂代码:我自己的体感是TS、CSS、HTML 输出干净利落,命名更统一、原子类更收敛,PR review 压力小。

1)框架与语言:Next.js + TypeScript

Section titled “1)框架与语言:Next.js + TypeScript”
  • 理由:Next.js 原生支持 TS,零配置起步,目录清晰,服务端/客户端组件切换自然。对 GPT-5 来说,约束越清晰,生成就越稳
  • 实践:把 tsconfig.jsoneslint 规则、app 目录示例都丢给 GPT-5,让它按你的约定起脚手架,后续都围绕同一规范补齐。

2)样式/UI:Tailwind CSS + shadcn/ui + Radix

Section titled “2)样式/UI:Tailwind CSS + shadcn/ui + Radix”
  • Tailwind:原子类语义稳定,便于 GPT-5 组合和复用;需要个别值时,方括号语法很好用。
  • shadcn/ui:不是黑盒库,而是可复制到仓库里的组件源码;这点对 AI 生成/重构特别友好,GPT-5 能直接在你的代码里改。
  • Radix Primitives:可访问性打底、可组合的低阶组件。配合 shadcn 主题层,既省心又可深度定制

小招:把你的配色、圆角、阴影等设计约束整理成「Tailwind 主题配置 + shadcn 组件清单」,让 GPT-5 先读再写,它会按你的语义风格输出统一的 UI。

3)图标:Material Symbols / Heroicons / Lucide

Section titled “3)图标:Material Symbols / Heroicons / Lucide”
  • Material Symbols:字体打包、接入简单,快速铺开整站图标。
  • Heroicons:Tailwind 团队出品,React/Vue 直接用,和原子类搭配顺手。
  • Lucide:覆盖面广,按需引入、Tree-shaking 友好。

小招:把你要用的图标「白名单」给 GPT-5,比如只用 Plus, Trash, ChevronDown,它会稳定地复用同一套,避免“图标风格跑偏”。

4)动效:Motion for React(原 Framer Motion)

Section titled “4)动效:Motion for React(原 Framer Motion)”
  • 组件化 API、性能好,和 Radix/基础 HTML 元素衔接自然。GPT-5 生成的动效代码可读性强,后续自己也能接手改。

5)字体:Inter / Geist / Mona Sans / IBM Plex Sans / Manrope

Section titled “5)字体:Inter / Geist / Mona Sans / IBM Plex Sans / Manrope”
  • Inter:UI 友好、可读性强,作为正文默认非常稳。
  • Geist:Vercel 出品,现代、干净,和 Next.js 视觉很搭。
  • Mona Sans:GitHub 出的可变字体,力量感适合标题。
  • IBM Plex Sans / Manrope:多语种/风格覆盖好,免费可商用。

一套「让 GPT-5 超发挥」的协作玩法

Section titled “一套「让 GPT-5 超发挥」的协作玩法”

需求文档 + 设计规范 + 组件清单 + 路由/数据模型整理成一个长上下文输入,GPT-5 的 40 万窗口吃得下,减少来回问答

B. 让它“先搭骨架、再填血肉”

Section titled “B. 让它“先搭骨架、再填血肉””

示例提示词要点:

  • “用 Next.js App Router + TS 起项目骨架,页面:/、/login、/dashboard; 组件基于 shadcn/ui,表单用 Radix 的 Dialog;样式只用 Tailwind 原子类。”

这样它会先列目录结构、组件清单、接口协议,二次对话再让它补单元测试、动效和图标替换。

tailwind.config.ts(颜色、半径、间距)和可复用类名约定交给 GPT-5,它会持续按你的口味输出,不会越写越花。

要求 GPT-5 把每个组件自动补 README / 用法示例 / 可访问性说明。Radix 的语义很适合它总结。


迷你实操(可让 GPT-5 直接生成/改写)

Section titled “迷你实操(可让 GPT-5 直接生成/改写)”
Terminal window
# 新项目
npx create-next-app@latest my-app --ts
# 安装样式与组件
npm i -D tailwindcss postcss autoprefixer
npx tailwindcss init -p
# shadcn/ui
npx shadcn@latest init
npx shadcn@latest add button input dialog
# Radix + Motion + 图标
npm i @radix-ui/react-dialog motion lucide-react

把以上命令、tailwind.config.ts、你的品牌色和圆角半径贴进 GPT-5,对它说:“按我的配置,生成一个登录页 + 仪表盘 + 顶部导航 + 侧边栏,交付 TSX + Tailwind 原子类,不要行内样式;图标只用 Lucide 的 LogIn, Settings, User。”


  • 样式失控:让 GPT-5 固定三层 spacing(如 8/12/16)和两级阴影,Tailwind 原子类就不会炸。
  • 组件风格不统一:用 shadcn 模板 + Radix 交互 作“唯一真源”,GPT-5 直接在源码里改最稳。
  • 图标东一榔头西一棒槌:提前给图标白名单,并在提示里强调“只用这些”。

一句话总结: 用规则喂养 GPT-5,它就会用规则反哺你的前端工程。 长上下文+清晰工程栈,这代模型在前端的「生产力与创新」都已经能打。你不需要它替你“写一切”,你只需要它把脏活累活标准化,你继续做审美与取舍

你觉得这套栈里,哪个环节最能省你时间?评论区聊聊你的实践。

Gemini Storybook 支持中文配音,PDF下载打印就能成漫画书

一句话版本:Gemini 的 Storybook 新功能上新了——支持中文朗读多风格插画可选网页直接打印/导出 PDF,做一本孩子专属绘本,不到 1 分钟。


你是不是也有这种瞬间:临睡前,孩子突然想听“恐龙超人去火星”;家里抽屉塞满了小朋友的画,舍不得丢。 Storybook 把这些灵感一键变成 10 页插画故事 + 语音朗读,还能把孩子的照片、手绘一起“收编”进画面里。


官方已上线**“朗读(read-aloud)”,并说明支持语言会逐步扩展;媒体报道与实测显示中文已可用**,家长能直接听中文讲故事。效果自然流畅,适合床边故事。

要点:45+ 语言覆盖(文本与音频),移动端与网页端均可用。


想水彩、动漫、像素、橡皮泥、涂色书?一句话换风格,还能上传孩子的照片或手绘,当作灵感生成插图。角色名、场景细节也能随时改,再生成新版本。

官方举例:从“讲太阳系”到“讲搬家”,教育场景同样适用。


每本故事都能生成分享链接;网页端直接打印。实际操作里,打印为 PDF 就能得到可直接去打印店出纸的文件。


  1. 打开 Gemini,发起对话: “帮我做一本《胆小恐龙学跳舞》故事书,画风水彩,适合 5 岁。”
  2. 加料:上传孩子画的恐龙/照片,指定主角名字、小怪兽爱吃什么。
  3. 微调:让它“更搞笑一点”“把风格换成动漫”,生成新版本;点朗读直接播放。

  • 睡前 10 分钟:把“今天在幼儿园的小冲突”,改写成和解冒险故事。
  • 知识小课:用“涂色书风格”讲清“太阳系/垃圾分类/交通安全”。
  • 纪念册:把旅行照片/家庭合影,串成“我们在济州的奇遇记”。

  • 朗读语言:官方注记“朗读目前仅在部分语言开放”,若没看到按钮,换语言或等更新。
  • 角色一致性:AI 插画偶尔“离谱”,比如角色细节前后不一。用照片/重复强调设定能明显改善。
  • 分享权限工作/学生账号可能不能分享公开链接;用个人账号最稳。

  • 门槛降到“开口即创作”:家长、老师、创作者都能把想法快速落地。
  • 陪伴质量更稳定:忙碌时有“AI 讲读”,有空时再亲自读,灵活切换。
  • 风格量级自由:从像素风橡皮泥,再到孩子亲笔画个性化强

Storybook 把“讲一个好故事”的门槛,降到了“说一句话”。 中文能听、风格能玩、打印能带走。你负责想,它负责把故事装订成爱。 你会先做哪一本?留言告诉我你的第一个主题

GPT-5 规划设计 + Claude Code 生成代码 + GPT-5 评审总结

结论先说:**GPT-5 适合做规划、结构化设计与评审总结协作;Claude Code(Sonnet / Opus)更稳于“动手执行、缝合改造”。**实际落地,用“GPT-5 规划设计 + Claude Code 生成代码 + GPT-5 评审总结”的组合,效率更高、翻车更少。你觉得呢?


昨晚看完发布会,我的第一反应是:GPT-5 不只是更快更准,它更会“想”了。官方把“最小化推理(minimal reasoning)”和“verbosity 冗长度”做成了可控参数,还把上下文做到 40 万 tokens、单次最多输出 12.8 万,并且把 Gmail/Google Calendar 等连接器直接塞进 ChatGPT 里,团队用户今天就能用,企业与教育版 8 月 14 日跟上。

媒体给的关键词也很一致:更少幻觉、更强编码、更“像专家”;但也有提醒——宣传图表翻车,别迷信厂商曲线,要看独立评测与真实项目。


  • 可控的“思考力度”:API 里新增 reasoning_effort="minimal",能在不牺牲太多质量的情况下更快给结果;verbosity 控制回答长短与信息密度。对工程同学,这俩就是速度/质量旋钮

  • 更长的“工作记忆”40 万上下文(约 272k 输入 + 128k 输出),更靠谱的长文档/长链工具调用。

  • 价格公开输入 $1.25 / 百万 tokens,输出 $10 / 百万;mini、nano 更便宜。

  • 工具链协作:官方宣称在复杂工具调用上显著提升(τ²-bench 电信场景 96.7%),适合端到端 Agent 工作

  • ChatGPT 侧的新体验连接邮箱与日历、个性化语气与语音、学习模式等,让“日常用+团队协同”门槛更低。

一句话GPT-5 是“更可驾驭的通才”,能按需快思/深想,还更懂工具。


二、我的上手感受(含和 Claude 对比)

Section titled “二、我的上手感受(含和 Claude 对比)”

下面是我在真实仓库里的手感,偏主观,欢迎拍砖。

  • 空手起稿容易犯错:让 GPT-5 直接写一大段后端代码,API 使用与技术栈细节偶有偏差,尤其是一些“看起来对、跑起来错”的小坑;Claude Code Sonnet / Opus在这种“把活儿做细”的任务里更稳。Opus 4.1 的 SWE-bench Verified 官方给到 74.5%,确实能打。

  • “照着现有例子扩写/改写”成功率高:把已有项目的目录 + 关键文件 + 我写的最小可行样例丢给 GPT-5,它在跟随风格与兼容已有接口上更靠谱,尤其前端 UI/交互一把过。Wired 与 TechCrunch 的实测也都强调了编码与写作/分析的全面提升

  • 基准分是强,但别神化:OpenAI 自报 SWE-bench Verified 74.9%、Aider polyglot 88%;第三方也有说 GPT-5 ≈ Opus 4.1 ≈ Grok 4 的场景,差距因任务而异。所以上生产别只看分

个人结论做“蓝图”和“评审”我更愿意用 GPT-5;真正“落锤拧螺丝”,Claude Code 更省心


三、推荐工作流:GPT-5 规划 + Claude Code 执行

Section titled “三、推荐工作流:GPT-5 规划 + Claude Code 执行”

Step 1|产品/架构设计
业务目标、边界条件、非功能指标丢给 GPT-5,要求产出系统草图、接口契约、失败用例与监控点。可提示:

“用 verbosity=low 给摘要;再用 high 展开关键模块风险清单。”

Step 2|任务拆解与验收
让 GPT-5 输出里程碑 → 任务 → 验收标准,并生成代码变更清单(文件、函数、风险点)。

Step 3|交给 Claude Code 干活
现有仓库 + 任务卡 + 验收标准交给 Sonnet/Opus,要求分支开发、每步提交日志、失败可回滚Opus 4.1在多文件重构/调试的稳定性正是强项。

Step 4|双向复核
让 GPT-5 做 PR Review、补测试、写变更日志;再让 Claude 做修复与扫尾

Step 5|长链自动化
复杂链路(搜索/检索/调用 N 个工具)可优先交给 GPT-5,官方在长链与工具指令遵循上给出新数据背书;但关键步骤加人工断点,别全权放飞。


  • 0→1 原型、前端美感、落地即用:偏 GPT-5(前端生成与“按需软件”趋势多家媒体实测/评价)。

  • 大仓改造、长时间连续执行、细粒度修修补补:偏 Claude Code(Sonnet / Opus);其新版本在真实工程任务上持续强化。

  • 跨应用协同、日常办公ChatGPT(GPT-5)+ 连接器更顺手。


五、冷静两点:别被曲线图骗了,别只看榜单

Section titled “五、冷静两点:别被曲线图骗了,别只看榜单”
  • 发布会图表出过事故,官方承认“图表大翻车”。看信息请以官网页面与文档为准。

  • 独立评测还在赶:像 Vellum 这类平台给出的横评更接地气,不同数据集下胜负手不一样。把问题换成你的真实工作流,才是王道。


GPT-5 是“更会想”的通才,Claude Code 是“更会做”的工匠。
**用对位:**让 GPT-5 定战略、画蓝图、督工;让 Claude Code 推进、缝合、打磨。
组合起来,才是 2025 年最靠谱的工程打法。

你会怎么分工?评论区聊聊你的组合拳。

爸妈救星:Gemini Story Book 亲子创作故事书

一分钟速览 Google Gemini 刚上线的 Story Book 功能,可以把一句灵感瞬间变成一册 10 页、带配图和朗读的电子绘本。它支持 45+ 语言、自定义画风,还能导入孩子的涂鸦当素材——对爸妈、省心;对小朋友、激发创造;对专业作者、快速打样。


  • 10 页成书:一句提示词,文本+插画+朗读一次打包。
  • 任意画风:像素、粘土、漫画甚至黑白涂色本都行,还可上传照片当角色。
  • 45 种语言:多语朗读,跨国也能当睡前故事。
  • 一分钟完成:云端渲染,手机也能搞定。

👪 给家长:睡前故事不再“词穷”

Section titled “👪 给家长:睡前故事不再“词穷””

场景:5分钟搞定《勇敢的小恐龙找睡眠》

  1. 暮色森林,小恐龙哈比揉着眼睛却睡不着。
  2. 它遇到会发光的萤火虫,请它们唱摇篮曲。
  3. 萤火虫说:先学会深呼吸。
  4. 哈比“呼——吸——”,心跳慢下来。
  5. 月亮奶奶送来一片温暖月光被子。
  6. 星星宝宝们跳舞,在夜空排成“Zzz”。
  7. 风爷爷摇晃树梢,奏起沙沙安眠曲。
  8. 哈比感到眼皮变重,打了个大哈欠。
  9. 它钻进月光被子,对萤火虫说晚安。
  10. 最后一幅:哈比微笑入睡,星空静谧。

➡️ 操作:把以上 10 段粘进 Story Book,选“手绘水彩”风格,30 秒后就得到图文+朗读绘本。孩子看图、家长解放双手。


场景:悠悠和小机器人学编程

  1. 教室里,7 岁悠悠收到一台迷你机器人。
  2. 机器人说:“给我指令,我们去冒险!”
  3. 悠悠在平板上写下 move forward
  4. 机器人翻过彩虹积木桥。
  5. turn left——它绕过睡觉的猫咪。
  6. pick flower——手臂伸出采下蓝色花朵。
  7. 花瓣变成数字雨,屏幕弹出“Hello World!”
  8. 悠悠惊喜:代码能让世界动起来!
  9. 她写下新指令:dance()
  10. 机器人与悠悠一起跳舞,大声喊“Coding is fun!”

➡️ 操作:孩子把剧本贴进 Story Book,挑“像素漫画”风格,一本专属“编程冒险”就生成,寓教于乐。


🖋️ 给故事创作者:概念一分钟打样

Section titled “🖋️ 给故事创作者:概念一分钟打样”

场景:《咖啡猫的时间旅行》提案

  1. 咖啡馆里的橘猫踩到闹钟,穿越到1925。
  2. 复古电车叮当驶过,它四处寻找咖啡豆。
  3. 遇到蓝围裙女爵,递来蒸汽咖啡机。
  4. 蒸汽化作时间隧道,猫咪跌入2050。
  5. 机器人服务生用冷萃招待它。
  6. 萌猫按下“Home”键,时空倒转。
  7. 回到原店,发现咖啡味更香。
  8. 顾客排队打卡“时空特调”。
  9. 橘猫躺在吧台,尾巴轻摇。
  10. 尾声:招牌牌匾新增一句——“感谢时光旅者”。

➡️ 操作:作者贴剧本→选“蒸汽朋克油画”风→生成原型小册,再决定是否深化剧本与画面。灵感→成品只差 60 秒。


Story Book = 一键绘本工厂

  • 爸妈省时间,陪伴更轻松
  • 孩子当主角,创造力飞升
  • 作者快迭代,市场验证加速

动动手,把你的剧本也丢进 Gemini,看看它会端出怎样的惊喜吧!

(你觉得哪个场景最实用?留言区聊聊!🎈)

三巨头同日发布:轻量开源 GPT-OSS、编码最强 Opus 4.1 和 实时 3D 世界 Genie 3

OpenAI GPT-OSS 聚焦「轻量高性能开源」、Anthropic Claude Opus 4.1 主打「极致编码 + 智能代理」、Google DeepMind Genie 3 打开「实时 3D 世界生成」新赛道——三大模型各有必杀技,也各有最佳落地场景,值得所有 AI 创作者马上上手体验。


AI 领域今天像打了鸡血:OpenAI、Anthropic、Google 同日放大招。三大实验室的最新模型不止参数升级,更在方向上分道扬镳。下面 3 分钟,带你看亮点,顺手挑出最适合你的实战场景。


开源权重 · 单卡即可跑 · 商业友好 Apache 2.0

  • 两款尺寸:120B 参数可塞进单张 H100,20B 参数 16 GB 显存就能跑。
  • 推理成本低,延迟相比 GPT-3.5 系列下降 40%。
  • Benchmarks 显示,120B 模型在推理/工具调用上逼近 o4-mini。
  1. 本地私有化部署:医疗、金融等对隐私敏感的企业。
  2. 学术研究 & 二次微调:Apache 2.0 随便改,不限商用。
  3. 边缘推理:20B 版本配合 16 GB GPU 可上工业网关。

互动:如果你打算自建 LLM 服务,GPT-OSS 更吸引你还是 Llama 3?评论区聊聊~


SWE-bench 74.5% · 多轮代理 · 长上下文

  • Coding 基准 SWE-bench Verified 74.5%,再刷榜首。
  • Agentic Search:自动分步检索→汇总→生成。
  • 已上线 API、Bedrock、Vertex AI,价格与 Opus 4 持平。
  1. 复杂代码库重构:万行级重构 + 单测生成,一口气搞定。
  2. 企业内部知识检索代理:给文档库插上会思考的“大脑”。
  3. RAG 长文报告:超长上下文 + 细节追踪,少丢信息。

实时 24 fps · 720p · 可交互世界模型

  • 文本 → 分钟级 3D 世界,分辨率 720p,24fps。
  • 支持 Promptable World Events:一句话切换天气、加入角色。
  • 目标:为机器人、自驾训练提供高保真模拟。
  1. 游戏快速原型:设计师直接用文本拼场景。
  2. 机器人仿真训练:虚拟仓库、工厂先练再上真机。
  3. 数字孪生 / 教育体验:秒造交互式实验室、历史城市漫游。

需求首选模型理由
私有部署 + 低成本GPT-OSS 20B/120B轻量、Apache 2.0
大型编码 / 复杂搜索Claude Opus 4.1Coding SOTA + Agent
3D 交互 / 仿真Genie 3实时世界模型

未来几周 GPT-5 还在路上,大战刚开场,你准备好拥抱这波红利了吗?

120 亿 VS 50 亿:OpenAI 与 Anthropic 收入激增

过去半年,生成式 AI 赛道再次刷新速度上限:

  • OpenAI 的年化经常性收入(ARR)在 6 个月里从 60 亿美元 飙到 120 亿美元
  • Anthropic 则在 7 个月内实现了 10 亿 → 50 亿美元 的 5 倍跳跃。

这两家明星公司为何能同时“起飞”?更关键的是,它们的增长动能来自哪里、未来可能出现哪些变局?本文拆解四个关键收入模块,带你看清赛道暗流。

1. 消费者订阅:OpenAI 继续一骑绝尘

Section titled “1. 消费者订阅:OpenAI 继续一骑绝尘”
模块OpenAI 2025E ARRAnthropic 2025E ARR主要驱动
消费者订阅55 亿美元7 亿美元ChatGPT Plus、Team、学生订阅等

OpenAI 在 C 端的优势由 ChatGPT PlusTeam 强化:月费 20–30 美元的订阅模式将庞大的免费流量转化为现金流。相比之下,Anthropic 尚未跑出类似体量的直面消费者产品。

2. 企业与伙伴订阅:微软加持带来的“顺风车”

Section titled “2. 企业与伙伴订阅:微软加持带来的“顺风车””
模块OpenAIAnthropic
企业 & 合作伙伴订阅36 亿美元9 亿美元

OpenAI 得益于 Microsoft 365 Copilot 与 Azure OpenAI Service 的深度绑定:企业通过 Azure 采购 GPT-4o,计入 OpenAI 的合作收入。Anthropic 虽与 Google、AWS 均有捆绑,但规模仍落后。

3. API 收入:Anthropic 反超的唯一战场

Section titled “3. API 收入:Anthropic 反超的唯一战场”
模块OpenAIAnthropic
API 收入总额29 亿美元31 亿美元

API 是 Anthropic 唯一领先的细分:Claude 3/4 系列在开发者社区口碑突出,更以 token 价格友好稳态响应 抢占市场。

  • Cursor + GitHub Copilot 合计贡献 14 亿美元 ARR,占 Anthropic API 收入近一半。
  • 代码专用模型 Claude Code(前称 Claude 3 Haiku-Code)也在短短数周内 ARR 从 2 亿涨到 4 亿美元

几乎所有热门 IDE 插件、浏览器扩展默认调用 Claude 4 Sonnet,这让 Anthropic 在代码生成领域形成了事实标准。

4. 产品矩阵对比:谁更“抗周期”?

Section titled “4. 产品矩阵对比:谁更“抗周期”?”
收入来源多样性OpenAIAnthropic
消费者订阅
企业订阅
API
代码专用模型独占高增长

OpenAI 的结构更均衡;Anthropic 则高度依赖 开发者 API + Coding,集中度高意味着 弹性与风险并存

  • 利好:只要持续领先代码能力,ARR 可爆发式增长。
  • 隐忧:一旦 GPT-5 或其他模型在代码任务上追平并通过价格战渗透,API 客户(尤其是 Cursor、Copilot)可能出走,营收会立刻受挫。
  1. GPT-5 的代码性能
    OpenAI 已公开招聘“Code LLM”团队,若 GPT-5 在代码生成与单元测试自动化上大幅超越 Claude 4,Anthropic 的护城河或被冲击。
  2. 成本结构差异
    Anthropic 依赖 AWS Trn1/Trn2,同时加购 Nvidia H100;算力与资本支出更重。OpenAI 在微软定制超算上拥有成本优势,可通过降价压缩对手利润率。
  3. 垂直化 SaaS 夹击
    Replit Ghostwriter、Sourcegraph Cody 等自研或多模型路由方案在兴起,降低了对单一 API 的依赖。
  • 开发者:短期内 Claude 4 Sonnet 在代码任务依旧性价比最高,但应提前做多模型兼容,规避供应商锁定。
  • 产品经理/创业者:若定位非代码场景(客服、文案、多模态),OpenAI 的生态、插件体系更成熟。
  • 投资者:关注两家公司在 代码 LLM 领域的新基准测试(HumanEval+, SWE-Bench 等),以及大客户绑定的续约价格——这将直接折射出增长曲线是否可持续。

结论
OpenAI 与 Anthropic 都在刷新收入增长纪录,但二者的“增长曲线”底层逻辑截然不同:前者多点开花、护城河宽;后者依赖单一高增速赛道冲刺。未来 6–12 个月,代码生成这条“胜负手”若被改写,2025 年 ARR 排名很可能再度洗牌。

这套 Claude Code 命令,拯救了我每周 5 小时的编程时间

CCPlugins 是一套由社区开发者 brennercruvinel 维护的 24 条「专业级」命令包,专门为 Claude Code CLI 打磨,主打省时、省心、省 bug。它用“会话式”语法把安全检查、代码清理、特性脚手架、智能提交等繁琐活做成一条条 Slash-Command,安装脚本 30 秒就能跑完,实测每周可帮开发者节省 3~5 小时机械劳动时间。


“加个按钮”结果给你重写整套 UI?在 Claude Code 里,这事儿并不稀奇。CCPlugins 想做的,就是把 Claude 的『无穷想象力』关进笼子,让它只做你要的事


  • “Enterprise-grade workflows”:面向团队的流程化命令集,而不是单纯 prompt 宏。
  • 针对 Opus 4 / Sonnet 4 模型专门微调的上下文模板,保证输出稳定。
传统做法常见痛点CCPlugins 解法
手打 prompt过度工程 / 输出失控固定脚本 + 校验阶段 /refactor validate
人工提交信息缺失/commit 自动生成 Conventional Commit
全量扫描浪费时间Grep / Glob 只扫关联文件,增量处理

Terminal window
# macOS / Linux
curl -sSL https://raw.githubusercontent.com/brennercruvinel/CCPlugins/main/install.sh | bash
# Windows
python install.py

卸载同理:./uninstall.shpython uninstall.py

提示:脚本会把所有命令 md 文件放到 ~/.claude/commands/,再次更新直接 git pull


  • /cleanproject :秒删调试垃圾,自动 Git checkpoint 备份。
  • /scaffold user-auth :读取项目结构,一键生成完整功能骨架。
  • /review :四重子 Agent 做安全、性能、架构、可维护性体检。
  • /security-scan :链式漏洞扫描+修复跟踪。
  • /understand :自动输出架构图、设计模式清单。
  • /explain-like-senior :一句话读懂复杂代码,支持多文件。
  • /session-start / /session-end :生成 CLAUDE.md,完整记录迭代历程。

  1. 安全护航

    Terminal window
    claude "/security-scan" && claude "/review" && claude "/test"

    让 CI 在合并前跑一遍「扫描-审查-测试」流水线。

  2. 晨间例行

    Terminal window
    claude "/session-start"
    claude "/predict-issues"

    上班先预测风险,再开工。

  3. 收工一键收尾

    Terminal window
    claude "/format" && claude "/commit" && claude "/session-end"

    统一代码风格+智能提交信息+总结日志,优雅下班。


CCPlugins 把「一句话指挥 AI」升级成了模块化、可复用、可审计的工作流,让我们真正把时间花在设计和决策上,而不是 debug 和手动搬砖。还不快装一个试试?

Claude Code 在你的本地浏览器中运行

Claude Code Web UI(简称 CUI)把原本只在终端里跑的 Claude Code 搬进了浏览器,界面现代、支持并行多会话、还能推送通知和语音听写;只需一条 npx cui-server 命令即可启动,登录后就能在任何设备继续你的 AI 编程任务。


还在命令行里和 Claude “黑屏对话” 吗?CUI 让 AI 编程体验直接升级成云端 IDE,点开浏览器就能写 Prompt、跑 Agent、收通知,连手机也能随时接力。


  • React + TypeScript 打造,界面自适应桌面与移动。
  • 自动补全 与 CLI 保持一致,上手零学习成本。
  • 支持 多任务同时流式输出,复杂项目不再排队。
  • CUI 会扫描 ~/.claude/ 历史,集中展示并可一键 Resume / Fork / Archive
  • 集成 ntfy,任务跑完或等待授权时立即提醒。
  • 连接 Google Gemini API,长句语音转文字又快又准。

  1. 环境准备

    • Node.js ≥ 20.19.0。
  2. 一键启动

    Terminal window
    npx cui-server
    # 或全局安装:npm i -g cui-server

    终端会输出一串 #token,复制备用。

  3. 浏览器访问 打开 http://localhost:3001/#<token> 即可登陆。

TIP: 需要远程访问?在 ~/.cui/config.jsonserver.host 设成 0.0.0.0,或用 --host / --port 参数,再配合 Caddy 反向代理升级 HTTPS。


  • Tasks 标签页查看正在运行的会话;长任务可直接关页后台跑,不怕断线。
  • / 调命令、@ 调文件,和 CLI 保持同一套肌肉记忆。
  • ⌘/Ctrl + Enter 发送,空格换行,小技巧提高 10% 敲字效率。
  • 先在系统里导出 GOOGLE_API_KEY,再重启服务器即可开启语音输入。
  • 任意设备装好 ntfy 客户端,订阅同一 Topic,任务结束马上震动提醒,不再盯屏。

CUI 把 Claude Code 的能力做了“浏览器可视化外壳”,轻量安装+远程访问+推送生态,让 AI 编程像刷网页一样丝滑。你最期待用它解决什么痛点?评论区聊聊!

Claude Code 助你开发效率从 1× 到 100× 的蜕变

你是不是也听过那句经典论调:「一个 1× 工程师用 AI 是 0.1×,但一个 10× 工程师用 AI 就是 100×」。这不是夸张,而是真的 —— 前提是你具备 系统思考、沟通精准、架构设计 等关键能力。本文逐条拆解,结合 Claude Code 的真实能力,告诉你如何将 AI 效能暴涨 100 倍。


场景 1:高维思维 vs 文件级思维 🚀

Section titled “场景 1:高维思维 vs 文件级思维 🚀”

.1× 工程师只能想“写一个方法”,而 100× 工程师能够在心里保持整个系统的状态。Claude Code 能够瞬间建立对百万行代码的整体视图。只需一句话,你就能让它 “搜索项目中的用户权限逻辑,分析跨服务依赖,并生成包含所有修改的 PR” —— 整个代码库级别的联动由 Claude 去做。

举例 你想将 authToken 的加密方式从 HMAC-SHA256 换成 RSA:只需一句 “用 RSA 重写 token 逻辑并确保测试绿灯”;Claude Code 一次性跨 5 个文件:controller、service、utils 和单测,形成协调一致的 Git 提交。


场景 2:沟通精确度,就是效率倍增器

Section titled “场景 2:沟通精确度,就是效率倍增器”

.1× 工程师给出模糊需求,CLAUDE 要 “猜”、要“试”,容易反复。

而那些会写工程思维文案的 100× 工程师知道,prompt 写得像好文章,LLM 才能帮你精准执行。

Claude 团队多次强调结构式 Prompt:包括背景、意图、格式、例子、校验条件等要素。

举例 你想重构 calculateScore 函数,并确保逻辑保持一致: 你提供示例输入输出表、希望 PR 标题模板、CI 校验规则;然后一句话交给 Claude Code:“基于以下示例和规则,重构 calculateScore,请输出 PR diff、测试报告和 commit message。”

结果:PR 合格率 99%,人工 Curate 降低 20 倍。


场景 3:耐心打磨架构,AI 才淘宝李察才能稳定输出

Section titled “场景 3:耐心打磨架构,AI 才淘宝李察才能稳定输出”

.1× 工程师头也不回地叫 Claude 写功能,结果系统崩;100× 工程师知道重要的是事前设计。

Claude Code 能结合长上下文记忆与工程意图,执行设计得当的结构变更——Cue MCP(Model Context Protocol),让 Claude 可以接入你的设计文档、tickets、架构图等,形成长期视角(state)。

举例 你计划把 monolith 分拆成 service mesh:先写明确文档 + 接口契约 + 合并策略,然后用 Claude Code 一步步生成 scaffolding、提取逻辑、生成 SDK 和原型 PR,甚至连 CI 配置都自动生成,测试通过才交给你审查。


场景 4:上下文控制力,是你价值的翻倍杠杆

Section titled “场景 4:上下文控制力,是你价值的翻倍杠杆”

停止把 LLM 当作 autocomplete,开始把它当作系统级上下文引擎。Claude Code 嵌入了 Claude Opus 4,能完整地理解整个项目结构、依赖图、命名规则、样式规范,甚至 README 和 issue template。

举例 你想新增一个“移动端缓存层”模块。只要一句话让 Claude Code “遵循项目现有的 cache‑service pattern,生成 consistent module + README + unit tests”,它就能识别 pattern,把新增代码一致地插入代码架构。


场景 5:真实智力与系统思维优先,工具知识可有可无

Section titled “场景 5:真实智力与系统思维优先,工具知识可有可无”

.1× 工程师挂靠 IDE 快捷键记事,.10× 工程师从 Node.js 切到 Go r,但 100× 工程师享受的并不是写代码,而是提出模式、解构问题并让 Agent 去买单

Claude Opus 4 在 Anthropic 自己内部被称为 “the best coding model in the world”,能让工程师“在几小时内持久完成数百步骤的复杂任务”——这就是系统思考+Agent 控制的典型成果。

举例 你想重写一个微服务,从 Express 移植到 Rust,保留原先全部行为边界:你写需求和样板数据,Claude Code 自动 scaffold Rust 服务、生成 HTTP 接口、映射数据模型、迁移旧逻辑,还生成了对比测试和部署 config。


场景 6:AI 是强放大器,你的优点让 AI 更强,缺点让 AI 更糟

Section titled “场景 6:AI 是强放大器,你的优点让 AI 更强,缺点让 AI 更糟”

对 100× 工程师来说,Claude 会把你的组织原则、命名规范、测试覆盖、文档风格“学习”起来,然后在每个 commit 中都一致执行。如果你乱写英文注释和乱用缩进,它会帮你继续乱;你有纪律,它把你变成一套风格化的引擎。

举例 项目早期你严格遵守 <service>.test.js、commit 90 字以上 PR 描述,README 和 issue 模板齐全。Claude Code 会像你一样严格标注 "BREAKING CHANGE"、现在发现未测试路径不会生成代码,commit 中自动引用 issue ID。如果项目混乱,它生成的 commit 往往也会混乱——这个“坐骑”跟谁奔,谁有节奏。

来自社区真实反馈:

“I have mindlessly asked Claude Code over a large codebase … it gave an extremely clear report…” —— 大意是即便 prompt 不好,但项目结构清晰,Claude Code 挺给力。


  • Claude Code 并不仅是智能编写代码,更是让你能像架构师一样思考系统问题,精准沟通设计意图,持续维护代码标准。
  • 它不是让你不写代码,而是让你的大脑留给真正重要的决策,把繁重重复任务交给 AI 去背。
  • 当你把系统思考、prompt 文案、项目结构、测试覆盖、工程规范等打磨好时,Claude 就像你零误差的 100× 扩音器。

Palantir 股价走强背后的可控 AI 工程学

导读|当 AI 的“执行速度”远超人的复核速度,真正稀缺的是面向高风险行业的工程化质量与治理体系。Palantir 之所以能在 2025 年成为资本市场与产业落地的“双热门”,不是更会“讲故事”,而是把 数据—模型—行动—审计—交付焊成了一套可复用的可控 AI工程系统,并在医疗、航天、制造、国防这些“硬场景”里规模化复用。与此同时,股价持续走强,也在用市场定价反馈这套体系的商业穿透力与现金流确定性。

一、基本面为何“顶得住”股价?——来自两条主线的双重确认

Section titled “一、基本面为何“顶得住”股价?——来自两条主线的双重确认”

1) 经营与指引的上修 2025 年一季报,Palantir 收入 $8.84 亿、同比 +39%,并上调全年营收至 $38.9–39.02 亿区间;美国区收入 +55%,其中美国商业收入 +71%$2.55 亿,成为增长主引擎。

2) 长约 + 总框架的“现金流地基”

  • Maven Smart System:美军在 2025-05-20 对既有合同追加 $7.95 亿上限,至 2029-05-28
  • 美陆军 10 年企业级协议(EA):将 75 份分散合同整合为一份覆盖 10 年、上限 $100 亿 的企业级软件协议,用于快速采购 Palantir 的数据与 AI 软件(上限非承诺额)。

小结高确定性的大客户+高增速的商业业务叠加,既提供了当期业绩的兑现,也为估值提供了“耐久资产”的锚。即便短线因“估值贵”而波动,机构与媒体普遍将“业绩上修+合同框架”视作股价强势的主要支撑。


二、为什么是 Palantir?——“AI 工程化四件套”打穿关键业务闭环

Section titled “二、为什么是 Palantir?——“AI 工程化四件套”打穿关键业务闭环”
  1. Ontology|业务语义层:把企业真实世界(对象/关系/动作)数字化为“可被人和 AI 共识理解、且可执行回写”的语义底座。
  2. Foundry|数据+治理+应用:内置数据血缘、细粒度权限与合规模板,数据与动作全程可审计、可追责。
  3. AIP|AI 平台:在 Workflow/Logic/Agent Studio 中构建可上线的 AI 工作流与代理,支持多家主流 LLM 并把**Guardrails(规则/审批/权限)**写进流程。
  4. Apollo|跨域持续交付:在云/本地/空隔等多安全域统一版本、灰度与回滚;官方文章详述其在分级(含 IL6)空隔环境的交付方法论。

关键词:不是“更强模型”,而是更强工程:把 AI 的“思考速度”关进制度的笼子——从语义到动作为一体,从数据到行动全链条审计与治理。


三、四个“难啃行业”的落地样板

Section titled “三、四个“难啃行业”的落地样板”

① 公共卫生|英国 NHS 联邦数据平台(FDP) NHS 官方披露:7 年期、最高 £3.3 亿 投入,用于把分散系统联成面向一线临床与运营的联邦底座;推进中亦有采用进度与治理争议(英媒长期跟踪)。

② 航空航天|Airbus Skywise 行业平台 空客 2017 年联合 Palantir 启动 Skywise,平台后续对行业开放并被官方确认“Powered by Foundry”;Palantir 概览披露已超 100 家航司接入。

③ 公共治理/供应链|HHS/CDC 的 “Tiberius” HHS 在疫情期上线 Tiberius2020 年 9 月起运行),用于疫苗与治疗物资的全链路分配与追踪,文献明确其建立在 Palantir Foundry 之上。

④ 国防安全|Maven + 陆军企业协议 Maven 合同增补与陆军 10 年 EA 是“从项目走向统一软件采购体系”的信号:把 AI/数据平台当作长期软件基建来运维与迭代。


四、“接近光速”的质量与风险控制:把制造/医疗/航天的 QA 搬进 AI

Section titled “四、“接近光速”的质量与风险控制:把制造/医疗/航天的 QA 搬进 AI”
  • 细粒度权限 × 全程血缘:Foundry 原生列/行级权限与数据血缘,可对敏感信息实施差异化可见;行动(Action Types)同样受控并被记录。
  • 受控代理(Agent)与工作流护栏:AIP 将规则、审批、状态机嵌入工作流,让“能说会做”的 AI 始终处于可审计的动作空间
  • 跨域连续发布:Apollo 支持空隔与多密级环境的二进制传递与元数据同步,提供统一版本、灰度与回滚能力。
  • 制造业质量管理(QMOS):Palantir 将SPC/质管方法做成应用(QMOS)并在 Foundry 里统一数据、过程与改善循环;学术案例也显示车间数据工程化接入能显著提升班组效率与质量闭环。

五、资本市场读懂了什么?——“股价 ≈ 采用度 × 业绩兑现 / 估值风险”

Section titled “五、资本市场读懂了什么?——“股价 ≈ 采用度 × 业绩兑现 / 估值风险””
  • 采用度正在量化:以 AIP Bootcamp(5 天从 0 到可用) 为核心的 go-to-market,被官方与媒体反复提及:自 2023 年以来累计完成超 1,300 场,显著压缩试点到生产的周期。
  • 业绩兑现在提速:Q1 收入与全年指引上修,尤其美国商业高增,成为市场上修预期的重要依据。
  • 估值与波动:尽管股价屡创新高,但主流媒体也反复提示估值偏高/波动大;投资者需重点跟踪政府框架协议的转化节奏商业侧续航

六、给“难啃行业”的 AI 落地清单(可直接对表执行)

Section titled “六、给“难啃行业”的 AI 落地清单(可直接对表执行)”
  1. 闭环优先:优先选能闭环的高价值/高风险流程(排产、质控、临床路径、指挥链),把权限/审计/血缘一开始就写进方案。
  2. 建设企业级 Ontology:将对象—关系—动作统一建模,既让 AI 有规可依,也让人类可追溯、可回滚
  3. 把 Guardrails 写进工作流:用审批、状态转换、双人钥等机制限制代理动作空间;默认“人授能、AI 受控”
  4. 跨域持续交付:在云/本地/空隔统一版本与灰度,避免“影子系统”。
  5. Bootcamp 化推进:一周打出可上线的最小闭环,以事实证据拉动组织与预算。

当 AI 的执行速度逼近“光速”,赢家不是说得最快的公司,而是把速度驯服进质量与治理的公司。PalantirOntology + Foundry + AIP + Apollo医疗、航天、制造、国防这些最难场景里跑通了可执行、可审计、可复用的 AI 工程体系;股价的持续走强,正是市场对这套体系“可持续兑现”的一次集体投票。

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

Nvidia GPU 左右 AWS, Google, Azure 业绩是否达标?

AWS、Google、Microsoft 最新 Q2 云服务业务是否“达标”与 Nvidia 芯片份额的关系分析:

展示了 2025 年估计的云收入市场份额(cloud revenue)与 Nvidia GPU 占有率

  • AWS(亚马逊)预计占云收入约 44%,占 Nvidia GPU 20%
  • Google Cloud 约 19% 云收入20% GPU
  • Microsoft Azure 30% 云收入30% GPU
  • 其余新云服务(如 CoreWeave、Oracle)占云收入 5%、GPU 11%,合计新玩家 GPU 约 30% 左右

二、2026 财年 Q2 最新财报:云收入表现一览

Section titled “二、2026 财年 Q2 最新财报:云收入表现一览”
  • Q2 云收入 ~$31 B,同比增长 17.5%,年度运行率约 $123 B 。
  • 尽管跑赢预期,但相比 Microsoft 与 Google Cloud 的增长率落后。
  • Q2 云收入约 $13.6 B,同比增长 32%,超出市场预期。

Microsoft Azure(隶属 Intelligent Cloud)

Section titled “Microsoft Azure(隶属 Intelligent Cloud)”
  • 微软 Q2 收入 $76.4 B,Azure 部分同比上涨 约 39%,Azure 年收入已突破 $75 B,并继续加速。

三、与 Nvidia 芯片份额的对应关系分析

Section titled “三、与 Nvidia 芯片份额的对应关系分析”

图片中 AWS、Google、Microsoft 的云收入份额与 Nvidia GPU 占比分别为:

  • Azure:30% 云收入 ⇄ 30% GPU
  • GCP:19% 云收入 ⇄ 20% GPU
  • AWS:44% 云收入 ⇄ 20% GPU

对应现实数据:三家都是 Nvidia GPU 最大买家,但 AWS 尽管云营收最大(约 30–32% 市场份额),其 GPU 占比被历史降至 ~20%,远低于它的营收主导份额,这可能受 AWS 自研 Trainium/Inferentia 芯片替代部分 Nvidia 需求的影响 。而 Microsoft 与 Google 对 Nvidia 依赖更大,因此 GPU 占比接近其云收入份额。

  • Microsoft Azure:39% 增速强劲,高于同行,是增长领先者,云收入成长完美匹配 Nvidia GPU 占比,其 AI 能力和硬件配比表现都“达标”。
  • Google Cloud:32% 增速也非常亮眼,符合其 GPU 占比 ~20%(略高于云收入占比的小幅匹配),算是稳步达标。
  • AWS:虽然云收入最大,但增长落后(17.5%),未能与 GPU 占比同步提升;而 GPU 占比仅约 20%,低于其云收入市场份额(约 30%),这反映 AWS 越来越多使用本土芯片替代 Nvidia,从而影响 Nvidia 芯片购买—总体来看云业务增长不及预期,与 Nvidia 高市场占有率的关系弱化。

  • 微软 Azure:强增长、高 GPU 支出、与 Nvidia 占比高度契合,构成 AI/云双重引擎,标准达标;
  • Google Cloud:增长加速、资本开支提升、GPU 占比略超云份额,稳步“达标”;
  • AWS:营收领先但增速偏慢,且 GPU 占比低于云营收份额—在 Nvidia 供应依赖减少的趋势下,AWS 对 Nvidia 的贡献与云业务增长脱钩。
  • 尽管 Nvidia 仍掌握 约 90%+ 数据中心 GPU 市场份额 ,但其对三大 hyperscaler 的依赖正在分化:AWS 的依赖性在降低,而微软与 Google 更进一步加大采购匹配 AI 布局。
  • 同时,Nvidia 拓展 CoreWeave 等“新云”平台,抢占未来 11% GPU 市场份额(图中新云 ≈ 30% GPU)方向一致 。

公司Q2 云营收增长率Nvidia GPU 占比与 GPU 占比是否契合是否达标
Microsoft Azure~39%~30%高度匹配✅ 达标
Google Cloud~32%~20%略高略匹配✅ 达标
AWS~17–18%~20%云收入份额高于 GPU 占比❌ 未达标

  • 微软 Azure 与 Google Cloud 的云服务增长与 Nvidia GPU 占比整体匹配良好,可视为“达标”。
  • AWS 尽管规模最大,但其增长速度与 GPU 占比存在落差,难以称其与 Nvidia GPU 使用之间保持同步增长。
  • Nvidia 消费结构正从集中 hyperscaler 向联手中小云服务平台(如 CoreWeave)多元化延展,应继续观察未来 GPU 在这些平台的分布是否能维持图中的“新云 ~30%”趋势。

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

Claude Code Security Review 帮你盯代码安全漏洞

Claude Code 刚发布的 claude-code-security-review 把 Anthropic Claude 的大模型推理力塞进 GitHub Actions 和终端指令里。它能在拉取请求(PR)阶段就解析 diff,找出 SQL 注入、XSS、授权绕过等高风险漏洞,并自动过滤低价值噪声,还能通过 /security-review 一键在本地扫描。你的代码还没合并,潜在漏洞就已经被 AI 点名。


一、Claude Code Security Review 是什么?

Section titled “一、Claude Code Security Review 是什么?”
  • AI 驱动的安全审计:调用 Claude 的深度语义理解,超越正则匹配,直接读懂代码意图。
  • GitHub Action 集成:在 PR 打开或同步时自动触发,漏扫结果回帖到具体代码行。
  • 终端 Slash 指令:在 Claude Code 里输入 /security-review,同样的扫描能力即刻离线运行。


内置 False Positive Filtering,默认屏蔽 DOS、资源耗尽、无实际影响的输入校验等低危告警,只把真正要命的洞拉出来。

可识别注入攻击、鉴权缺陷、硬编码密钥、弱加密、业务逻辑竞态等 10 大类问题。

只分析改动文件,不挑语言,适合多语言微服务仓库。

一段 YAML 就能跑:

- uses: anthropics/claude-code-security-review@main
with:
claude-api-key: ${{ secrets.CLAUDE_API_KEY }}
comment-pr: true

VentureBeat、The New Stack 等媒体均指出,随着 AI 生成代码量激增,自动化安全审计已成刚需。这一 Action 正填补空缺。


  1. 在项目根目录新建 .github/workflows/security.yml
  2. 复制上方 YAML,并在仓库 Secrets 里添加 CLAUDE_API_KEY
  3. 提 PR 即可看到 Claude 自动评论漏洞详情 + 修复建议

<空一行>

在终端或 VS Code Claude Code 面板输入:

/security-review

即可对当前未提交改动执行同等级别审计,适合单人开发或离线场景。

<空一行>

  • 将仓库中的 security-review.md 复制到 .claude/commands/
  • 编辑过滤规则或补充公司专属安全基线,比如禁止弱密码算法。

场景触发方式AI 发现的问题结果
内部工具新增本地 HTTP 服务PR 合并前自动审计DNS Rebinding → RCE漏洞在合并前被修复
老项目重构终端 /security-review敏感日志泄露 + 弱加密 AES-ECB一键生成加密/日志修复 Patch
多语言微服务仓库每次 PRPython 依赖投毒 + Node XSSPR 评论列出漏洞 + npm audit fix 指令

AI 写码快,AI 把关安全更要快。把 claude-code-security-review 接入你的 DevSecOps 流水线, 让每一行提交先过安全门,再进主干。下一个零日,也许就被你提前关在门外。

编程、写作、图片和视频各领域推荐的海外 AI 产品服务

如果要搞深度推理、多模态处理还有复杂代码,Gemini 2.5 Pro Deep Think 是最强的选手; 要做全方位研究、自动整理信息产出报告,就选 ChatGPT Deep Research; 想在终端里让 AI 帮你写、调试大项目代码,用 Claude Code 最稳; 想在 IDE 里像跟队友协作改 bug、写功能,Cursor 更贴合开发场景; 做图用 Midjourney,做短视频就靠 Veo 3; 要搞流程自动化、脚本流程交互,就让 n8n 自己跑起来。

这样一来,选对工具,事半功倍。每个产品都有它最擅长的领域,组合使用才能发挥最大效力。

这是 OpenAI 最新的 o3 模型,主要擅长快速问答和信息检索。如果你有疑问,想要快速准确地找答案,聊知识、问问题,它才是首选。反应快,语言流畅,适合日常使用。


二、ChatGPT GPT‑4.5(AI 写作最佳)

Section titled “二、ChatGPT GPT‑4.5(AI 写作最佳)”

在创作文章、写内容、撰写复杂文本简介时,GPT‑4.5 拥有更强的理解和表达能力。情感丰富、结构清晰、语言多样,很适合写文案、报告或长篇内容。


三、Gemini 2.5 Pro(长文本 / 高级推理)

Section titled “三、Gemini 2.5 Pro(长文本 / 高级推理)”

Gemini 2.5 Pro 是 Google 发布的顶配模型,支持文本、图片、音频、视频、PDF 等多模态输入。它在复杂推理、代码生成、高级数学、科学题目上表现优秀,比如在数学或科学测试中拿高分。可以理解为 AI 世界的大脑型选手,非常适合深度内容创作与分析。


四、ChatGPT Deep Research(深度研究模式)

Section titled “四、ChatGPT Deep Research(深度研究模式)”

这是 OpenAI 专门为深入研究打造的模型,能够拆解问题,进行 5–30 分钟的多步骤网络搜索,自动浏览网页、提取信息、综合分析,并生成带引用的报告。适合用于市场调研、论文摘要、竞品报告、行业趋势分析。


虽然图表中没有给出个人版本,但 Midjourney 是生成艺术图、插画、设计视觉等最强的 AI 工具。支持风格多样、细节丰富、美感极高,创作者做封面图、插图时常选它。


Anthropic 的 Claude Code 是一个命令行终端里的 AI 编程助手。它可以自动映射你的项目结构,理解代码库、分析依赖,几秒钟内生成文档、增加新功能或重构代码。它背后用的是强大的 Claude Opus 4 模型,在编码表现方面已经领先业界。


Cursor 是基于 VS Code 的 AI 智能 IDE,可以完全理解并“记住”整个代码库,你提提示,它就能生成功能、编辑代码、回答代码相关问题。很多开发者说,用了 Cursor 后编码效率提升不止几倍。


Google 最新的 Veo 3 模型擅长生成高质量短视频,支持文本或图片输入,生成带原声音轨、配音、背景音或者对话,并且口型同步精准,输出最高可达 1080。企业、创作者可以用它快速生成广告、产品展示视频或教学短片。


n8n 提供的是流程自动化平台,结合 AI Agent 可以构建复杂工作流:自动抓网页、接入数据库、调用 API,让 AI 做决策、执行任务,不断在系统里运转。适合企业级场景,比如客服机器人、数据处理流程、定时提醒等。


领域首选产品优势与适用场景
AI 问答ChatGPT o3快速问答、信息检索
AI 写作GPT‑4.5创意写作、文案生成
复杂推理/长文本Gemini 2.5 Pro多模态、深度推理
深度研究ChatGPT Deep Research自动引用、详细报告
AI 图像Midjourney插画、视觉内容生成
编程助手Claude Code项目理解、代码生成
AI IDECursor代码库编辑、智能提示
AI 视频Veo 3高质量短视频生成
自动化 Agentn8n跨系统流程自动化

每个 AI 产品都有某个领域的绝对优势。如果你要迅速回答问题,用 ChatGPT o3;想写一篇有结构、有情感的长文,用 GPT‑4.5 或 Gemini;要撰写专题报告,就让 Deep Research 帮你整理;做代码协作,Claude Code 和 Cursor 各有特色;生成短视频,Veo 3 是最佳工具;流程自动化,那就交给 n8n。


在 AI 工具层出不穷的今天,选对工具比盲目追全能更重要。每个“首选方案”都有它擅长的地方。组合使用这些产品,你可以在问答、写作、研究、编程、图像、视频、自动化等领域快速落地、高效输出。

你最想优先尝试哪一个呢?欢迎评论告诉我你的使用体验,或分享你的操作案例!

Claude Code + Backlog.md 打造 AI 协作 + Git 看板

Backlog.md + Claude Code 把任何 Git 仓库秒变「看板 + 文档 + AI 协作中心」,而且所有数据都只是 Markdown 文件,离线私有。下面这篇文章会带你 5 分钟上手,从安装、核心亮点到典型工作流,一口气讲透它为什么能成为「人类 + AI」共创项目的最小可行栈。


还在多个 SaaS 工具之间疯狂切换?Backlog.md 用一行命令就能在本地生成一个完整的项目管理系统,既适合个人极客,也能无缝接入多智能体流水线,让 Claude、Gemini 直接读写任务。


  • 每个 Issue 就是一张 task-123 - title.md,随时 Git diff。
  • 本地编辑器香,AI 也读得懂。
  • 所有文件都在仓库里,无需外网依赖;在火车上也能改看板。
  • backlog board 直接在终端渲染实时列队。
  • backlog browser 自动打开响应式 Web UI,拖拽更新状态。
  • 自带 CLAUDE.md 等说明文件,输入「Claude 请接管 task-33」即可分配工作。
  • 支持子代理、Ultrathink 规划,常见模型都能配。
  • npm i -g backlog.mdbrew install backlog-mdnix run 随便挑。
  • Homebrew & Fedora 包同时上线,版本跟进快。

步骤命令说明
初始化backlog init "AI Side Project"交互式配置,自动生成 backlog/ 目录
捕捉任务backlog task create "重构登录流程"支持描述、负责人、标签、优先级等
查看进度backlog boardbacklog browser终端 / 浏览器两种味道

**Tips:**想让 AI 批量拆解需求?直接把 PRD 粘给 Claude:“请用 ultrathink 拆分任务并识别依赖”。


backlog board export README.md --export-version "v1.0.0" 生成带版本号的 Markdown 看板,推上 Git 立刻同步团队。

  • 利用 git worktree 或次仓库把 BE / FE 任务汇总到同一目录;所有链接仍指向原始分支。
  • backlog config set autoCommit true 省去手动 git add/commit
  • 若你有严格 pre-commit,可 bypassGitHooks true

backlog overview 在终端显示任务燃尽、柱状统计,让你秒判项目健康度。


  1. 独立开发者:本地 Git + Markdown,一台电脑全部搞定。
  2. 远程小团队:Pull Request 即同步任务状态,免 Jira。
  3. AI 代理流水线:LLM 读取 / 更新 task 文件,实现「规划→编码→PR」闭环。

Backlog.md 用最原生的工具链,把项目管理、文档、AI 协作三件事合一,帮我们把注意力拉回「写代码」本身。

你准备试试这种「本地 Git 看板」了吗?评论区等你分享体验!

Claude Code 的 Slash‑Commands 与 Sub‑Agents 的区别与协作实战

你有没有想过,可以把常用的 AI 操作包装成快捷命令,一键执行,还能让 AI 拆任务后分工合作?Claude Code 正是这样一款能让开发者更高效、更规范、也更有趣地使用 AI 辅助编码的工具。今天我用轻松的语言跟你聊聊它的两个核心功能:Slash‑CommandsSub‑Agents,并告诉你它们有什么特点、用法和区别,还举几个真实的例子让你立马能用。

在 Claude Code 中,Slash‑Commands 就像你事先写好的“快捷按钮”,能一键触发标准流程;而 Sub‑Agents 就像一支由多个 AI 小助手组成的团队,每个小助手专精一项任务,由主 Claude 给它们安排工作。


Slash‑Commands:你自定义的 AI 快捷按钮 🚀

Section titled “Slash‑Commands:你自定义的 AI 快捷按钮 🚀”
  • 自定义提示写一次,用命令调一次:将常用操作(如代码审查、性能优化、Issue 修复)写入 .claude/commands/*.md 文件,Claude 就把这套提示视为一个命令。输入 /命令名 参数 就能自动执行对应流程。
  • 支持参数化:命令中可使用 $ARGUMENTS 占位,输入参数时会替换提示内容,接收 Issue 编号、模块名等参数灵活调用。
  • 项目共享或个人私用:放在 .claude/commands/ 为项目级命令,整个团队都能用;放在 ~/.claude/commands/ 则是个人私有命令。

比如你定义一个 /fix-issue 命令,模板里写好修复流程:

修复 GitHub issue:$ARGUMENTS。
请执行以下步骤:
1. 用 gh issue view 获取详情;
2. 分析问题; 3. 找到相关代码; 4. 提交修复;…

在命令行输入:

/fix-issue 123

Claude 会进行 Git 操作、代码修改、开 Pull Request,整个过程自动化,省了你一大堆重复步骤(也可以选择是否自动提交)。适合重复修 issue、审查 PR、生成文档等场景。


Sub‑Agents:由 AI 拆任务、分工协作的多智能体系统 🧠

Section titled “Sub‑Agents:由 AI 拆任务、分工协作的多智能体系统 🧠”
  • 每个子代理心无旁骛:Sub‑Agents 是具有独立上下文的“小 Claude”,专门负责一类任务,如性能优化、测试生成、代码审查等,从不干扰主对话体。
  • 角色自定义,可复用:你可以用 /agents 命令创建子代理配置,每个代理有明确名称、描述和权限(如只读代码、运行 tests、调用 grep 等)。
  • 主代理负责统筹,并可串联多个子代理:主 Claude 根据上下文决定哪些子代理执行哪些任务,支持任务拆分、职责分明,最终结果汇总返回主对话界面。

假设你定义了几个子代理:

  • code-reviewer.md:只审查代码风格和安全问题
  • test-builder.md:专门生成单元测试
  • debugger.md:负责查错误日志并定位问题

你和 Claude 这样对话:

“请审查 auth 模块” → 主代理调用 code-reviewer “这个模块单测写一下” → 调用 test-builder “发现测试失败,找错在哪” → 调用 debugger

最后主代理把输出汇总给你。整个过程就像你请来了一队 AI 助手各司其职。


两者区别:敲门方式不同,分工视角不同

Section titled “两者区别:敲门方式不同,分工视角不同”
项目Slash‑CommandsSub‑Agents
调用方式开始输入 / 触发命令对话中自动或显式使用 /agents 调用特定子代理
使用门槛写模板即可,比较直观需要定义角色描述、工具权限、提示风格等,比较复杂
场景定位重复、标准流程类任务专业、复杂或可拆分任务(如测试、审查、调试)
输出控制每次用模板一致,比较固定可以拆多个阶段,用不同代理负责不同环节,输出更细化
可维护性模板文件易管理,适合团队共享子代理配置文件复杂,需要版本控制、同步更新

使用举例:真实工作流中的两者协同应用 👩‍💻

Section titled “使用举例:真实工作流中的两者协同应用 👩‍💻”
  1. 规范审查流程

    • 写一个 Slash‑Command /security-review,模板里自动检查代码安全点。
    • 主代理调用 security-review,并根据情况再触发 code-reviewer 子代理输出细节。
  2. 自动修 Bug + 提单

    • Slash‑Command /fix-issue 456 启动:主代理扫 GitHub issue -> 调用 debugger 查错误 -> 修改代码 -> 再调用 test-builder 写测试 -> 最后开 Pull Request。
  3. 模块协作场景

    • 创建 frontend-expert 子代理专注 React 组件优化、创建 backend-optimizer 子代理负责 API 性能。
    • 项目想做一个新 feature 时,主代理一个流程让两个子代理各自产出方案,再汇总由你决策。

Slash‑Commands 是你的快捷命令按钮,适合反复、标准化的操作 Sub‑Agents 是你背后的 AI 小团队,可拆任务、多角度、各司其职

建议你先试 Slash‑Commands:把最常做的几个操作放到命令里,团队共享模板文件。 熟练之后,再逐步引入子代理,将复杂流程拆给它们去做,主代理调度、你把控。这样可以少走弯路,也不会一开始就被工具搞晕。

如果你是小团队或短项目,一两个 Slash‑Commands 和简单子代理就很够用;长期项目或多人团队,就能慢慢扩展出完整的 AI 协作流水线。就像请了一个靠谱的 AI 助手团队,开发效率和规范性都会明显提升。

Android Studio 终于支持 Gemini Agent 自动写代码

在最新 Android Studio Narwhal Feature Drop 中,谷歌把 Gemini 完整“嵌”进 IDE——不仅能聊天,还能像“副驾”一样规划任务并批量改代码;你可以用「规则(Rules)」一键固定项目的编码规范,还能接入自己的 Gemini API Key,直接解锁 1 百万 token 的超长上下文。换句话说,Android 开发第一次拥有了真正可落地的 Agent Mode:它能读写多文件、跑 Gradle、开分支、提 PR,甚至帮你写完单元测试再自己修 bug——留给你的,只剩点头或摇头。


“写个功能要改十几处文件,怎么办?” 过去,我们只能反复切换窗口、复制路径、手动搜代码。现在,Gemini Agent Mode 接管这些机械步骤,你只需一句高层指令。Narwhal Feature Drop 的 AI 增强,正是要把 “思考” 留给人,“琐事” 交给机器


  1. 侧边栏点 Gemini → Agent,输入目标:“为首页加深色模式”。
  2. Agent 会先展示 分解计划:哪些文件要改、需要跑哪些 Gradle 任务。
  3. 每一步它都会生成、打补丁、运行测试,你可以逐条「接受 / 拒绝」。
  4. 全部通过后,一键提交 PR。

为什么更强?

  • 支持跨文件批量修改,摆脱“只能回一段代码”的瓶颈。
  • 内置 IDE 权限,可直接读写磁盘、执行脚本。
  • 计划透明,可随时插手调整。

想让 AI 永远输出 Kotlin + Jetpack Compose? 打开 Prompt Library → Rules,写下项目约定,之后每次对话都会自动套用。团队把 .idea 入库,规则就随代码一起共享,再也不用“口头提醒”。


接入 Gemini 2.5 Pro,解锁 1 M 上下文

Section titled “接入 Gemini 2.5 Pro,解锁 1 M 上下文”

免费档模型上下文只有几千 token,复杂重构经常“记不住”前后文。Narwhal 支持 “Bring Your Own Key”:在设置里填入 Gemini API Key,即可切换到 2.5 Pro,一次对话塞下整条代码链。付费 GCP 项目默认享受此特权。


  • XR 工程向导:虽然主打 XR,但底层也用到了 Gemini 逻辑提示,自动填充模板与最佳实践。
  • MCP 扩展:初版已支持 stdio 传输,可进一步与 GitHub 等外部工具联动,未来会开放完整流式协议。
  • 性能优化:本次稳定版合入了大量 Canary 用户反馈,修复上下文丢失、计划卡死等问题。

Agent Mode 不是“智能对话框”,而是一位能改代码、跑脚本、写测试的全栈小伙伴。 它把 Android Studio 变成真正意义上的 “AI IDE”。

👉 你准备先让 Agent 帮你做什么? 写单元测试?重构旧模块?留言聊聊你的想法,也许下一篇就拆解你的案例!

Claude Code Cookbook 秘籍:自动化命令 + 多角色 + 智能 Hook

打造你专属的 Claude 编程操作系统


很多人用 Claude Code 写代码,但你有没有觉得:

  • 明明 Claude 很强,却总得手把手教
  • 每次要做测试、改文档、生成 PR,全靠你提醒?
  • 或者切换角色让人手忙脚乱,效率不升反降?

最近日本工程师 @wasabeef 放出一个神级项目 —— claude-code-cookbook让 Claude Code 像“自动化开发助理”一样,干活快、反馈准、思路清。

它不是一个普通的 Prompt 模板,而是 Claude 的“扩展操作系统”。

👇 我已经试了几天,非常惊艳,强烈推荐给所有用 Claude 开发项目的朋友!


🔧 三大核心功能:解锁 Claude 的隐藏能力

Section titled “🔧 三大核心功能:解锁 Claude 的隐藏能力”

🧾 1. Commands:让 Claude 听你的命令

Section titled “🧾 1. Commands:让 Claude 听你的命令”

只要输入 /命令名,Claude 就会开始执行对应任务。

比如:

命令功能
/explain-code自动讲解代码逻辑
/fix-error根据报错,生成修复方案
/commit-message自动写 Git commit 信息
/pr-create自动生成 PR 内容
/check-prompt帮你优化提示词
/semantic-commit语义化提交,提升版本控制质量

光是这些就足够让你减少大量重复性对话。

💡 每个命令本质是 Markdown 文件,支持自定义扩展,放进 commands/ 目录即可。


🎭 2. Roles:多角色切换,Claude 化身专业顾问

Section titled “🎭 2. Roles:多角色切换,Claude 化身专业顾问”

Claude 支持像“子人格”一样切换不同角色,比如:

  • /role qa 测试工程师
  • /role mobile 移动开发专家
  • /role security 安全顾问
  • /role architect 架构师

🌟 亮点是:支持并发执行!

Terminal window
/role performance --agent
/role security --agent

Claude 会同时启动多个角色,并行分析,最终统一出具建议。 这在做大项目评审、设计审查时,非常有用。


⛓ 3. Hooks:自动脚本,开发体验拉满

Section titled “⛓ 3. Hooks:自动脚本,开发体验拉满”

你可以设定一些脚本钩子,在特定时机自动运行。

比如:

  • check-ai-commit.sh:禁止 AI 签名出现在 Git 提交中
  • preserve-file-permissions.sh:自动保存/恢复文件权限
  • auto-comment.sh:提示添加 docstring 注释

连 “任务执行完提醒你” 这种小贴心也安排上了:

Terminal window
osascript(macOS 通知脚本)

一句话,Claude 真成了一个帮你打杂 + 提醒 + 写代码的靠谱搭子。


👇 项目里自带了一套开发流程图,从任务识别到 CI 状态追踪,一气呵成:

开发流程图

你甚至可以照这个逻辑,定制自己团队的“Claude 开发流水线”。


  1. 克隆仓库:

    Terminal window
    git clone https://github.com/wasabeef/claude-code-cookbook.git ~/.claude
  2. 在 Claude 客户端设置路径

  3. 修改 settings.json 来挂载 hooks、扩展命令

🛠 添加自定义命令、角色也只需在对应文件夹写 .md,很容易上手。


🧠 总结:把 Claude 变成你的工程副驾

Section titled “🧠 总结:把 Claude 变成你的工程副驾”

Claude Code Cookbook 带来一套系统化的开发工作流,让你:

  • 高效组织项目任务,Claude 自动跟进
  • 自由切换专业角色,应对不同工作情境
  • 自动化脚本辅助,彻底解放双手

对每个用 Claude 做 serious 开发的你来说,这是提升效率与专业度的神器。


📣 你最想定制什么命令给 Claude? 欢迎在评论区分享,一起打造更聪明的 Claude 助理!


如果你喜欢这类 AI 工具技巧,记得【在看 + 转发】给你搞技术的朋友!

从 Aider 到 Crush:开源 AI 代码助手

Crush 是一款由 Charm 团队开源的 终端里「接好 LLM 就能陪你写代码」AI 代理。它支持多家大模型、跨平台、会话记忆、LSP 语义补全、MCP 可扩展插件及细粒度安全控制;安装只需一个包管理器或 go install 即可;日常用法围绕「拿到 API-Key → 启动 → 写配置 → 一键切模型」。下面按公众号排版要求,带你 5 分钟摸透 Crush。


写代码的痛点不只是“写”,更多是 找文档、切上下文、调脚本。 Crush 宣称自己是“Your new coding bestie”——把这些碎活全包办,让你专注逻辑实现。 不到一周就冲到 5k⭐,比肩 Aider、Cursor 的 CLI 竞争态势火热。


关键词解释
LLM 热插拔中途换模型,历史上下文不丢
Session项目级多会话,持久保存上下文
LSP利用语言服务器拿到 AST,让回答更贴代码
MCP自定义上下文源,HTTP/STDIO/SSE 三种插槽
.crushignore类似 .gitignore,过滤不想暴露的文件

1. 多模型一键切换 官方自带 Catwalk 模型库,涵盖 OpenAI、Anthropic、Gemini、Groq 等,还允许自定义 DeepSeek、Claude Sonnet 等配置。

2. 会话隔离 + 项目记忆 同一个项目可以开 N 个「聊天室」,测试脚本、重构和文档互不打扰,退出再进上下文仍在。

3. LSP 语义上下文 Crush 会自动调用 goplstypescript-language-server 等,给模型补充 AST 与类型信息,回答更走心。

4. MCP 可插拔能力 想让模型读数据库、访问内网 API?写一个 MCP 服务丢进 mcp 字段,HTTP/STDIO/SSE 都行。

5. Everywhere CLI macOS、Linux、Windows/WSL 乃至 *BSD 一条命令就跑起来。

6. 安全可控 默认任何 Shell 指令都会二次确认;也可在 permissions.allowed_tools 白名单放行,或暴力 --yolo 跳过提示(慎用)。

Homebrew brew install charmbracelet/tap/crush npm npm i -g @charmland/crush Go go install github.com/charmbracelet/crush@latest

装完输入 crush,首次会提示粘贴 API-Key。支持 OPENAI_API_KEYANTHROPIC_API_KEY 等环境变量免输入。

  1. 启动

    Terminal window
    crush

    选择喜欢的模型,写句「Refactor this Go file」。

  2. 项目配置 在仓库根中新建 .crush.json,示例:

    {
    "$schema": "https://charm.land/crush.json",
    "lsp": { "go": { "command": "gopls" } },
    "providers": { "deepseek": { "type": "openai", "base_url": "...", "api_key": "$DEEPSEEK_API_KEY" } }
    }

3. 忽略杂物 .crushignore 里写 node_modules/,避免大模型扫无用文件。 4. 跟踪日志 crush logs --follow 实时看模型调用 & 代价。

  • Session 魔法crush session new docs 专门写文档;crush session switch bugfix 回到调试现场。
  • 模型热插/model claude-3;回答风格立马切 Shakespeare。
  • 成本透明:配置里可写 cost_per_1m_in/out,Crush 会估算每轮花费。
  • 开源社区活跃:Issues 已有 100+ 讨论,PR 24h 内 merge,非常友好。
  • 对标 Aider/Cursor:Det-Eng Weekly 点名它是 Windsurf/Cursor 的开源替代品,体验丝滑。

Crush = 终端 + LLM + 你的工具链 的完美黏合剂。 如果你习惯 tmux/vim 或 VS Code 内置终端,Crush 会让「写-跑-改」循环少敲无数命令。

Claude Code 不写代码,用来管理我的日常生活

还在用 Claude Code 写代码?我已经用 Claude Code 管人生了。

这不是段子,我用 Claude Code 打造了一套“生活操作系统”,轻松管理日常、抓住灵感、追踪目标,连心理状态都照顾到了。

只要 10 分钟设置好,Claude 每天就能帮我完成很多琐碎但重要的事。


👀 五个例子,看懂 Claude 有多厉害

Section titled “👀 五个例子,看懂 Claude 有多厉害”

Claude 每周自动生成我的成长仪表板:比如我的视频播放量、写作字数、收入变化……

📌 用法:用 /weekly check-in 命令,Claude 会生成图表 + 重点分析,甚至给我推荐内容选题!

亮点:像个不抱怨的私人教练,每周夸我一波,还顺便提点建议。


每天花 2 分钟,Claude 引导我写下当天的收获、反思和感受,还能追踪我的情绪和习惯。

📌 用法:运行 /daily check-in,回答几个问题,日记就自动整理好了。

亮点:培养自我觉察和感恩习惯,远离情绪内耗。


我只需要贴几个竞品链接,Claude 就能帮我写出自己的内容初稿。

📌 用法:用 /newsletter researcher 命令,它会分析我的风格,结合我的特点,生成新草稿。

亮点:节省 80% 选题和调研时间,灵感不用等,Claude 帮我找!


零碎的笔记太多?Claude 自动整理,变成思维导图或文章提纲,还能挖掘隐藏灵感。

📌 用法:把笔记导入 Claude,运行 /brain dump analysis 命令即可。

亮点:让“碎片笔记”变身“商业机会”。


Claude 会根据我的兴趣,汇总行业最新动态、新闻、创作灵感,每天早上准时送达。

📌 用法:设置 /daily brief 命令,它会自动搜索并整理。

亮点:不用刷 X / Twitter / 朋友圈,Claude 一站打包送上。


🧰 10 分钟打造我的「生活操作系统」

Section titled “🧰 10 分钟打造我的「生活操作系统」”
  1. 准备环境 安装 Claude Code(推荐使用 VS Code, Cursor 等),新建个人信息 markdown 文件。

  2. 初始化配置 执行 /init 命令,Claude 会生成规则文件。

  3. 设置 Slash 命令 从 Google Docs 复制提示词,比如 /weekly check-in/daily brief 等。

  4. 运行和定制 每天/每周运行这些命令,Claude 自动执行。我还可以让它生成更多自定义 Agent!


  • 节省时间:每周省下数小时,让 AI 替我搞定琐事。
  • 高度个性化:Claude Code 会根据我的兴趣和工作风格定制输出。
  • 技术门槛低:不需要写代码,复制提示词就能用。
  • 无限扩展:可以扩展成会议记录助手、待办清单生成器……

  • 刚上手也能玩:提示词非常清晰,新手照做即可。
  • 根据自己定制:试着加入我工作中常用的工具、流程,Claude Code 很擅长做“个性化助手”。
  • 记得跑起来!:把命令设成每天自动运行,Claude Code 会越来越懂我。

你最想 Claude Code 替你做什么?

Kombai:首个专为前端开发打造支持 Figma 的 AI Agent

Kombai 把「懂设计、懂组件、懂代码库」熔在一起,用专门为前端调校的上下文与工具链,让 AI 真正能在 500 K+ 行 的老仓库里新增页面、跑通编译,还能给你可视化预览——结果是编译通过率 96 %、代码评审得分 72 %,把同场 PK 的通用代理远远甩在身后。

  • 第一款专为前端开发定制的 AI Agent,不碰后端、不改数据库,只盯 UI & UX。
  • 产品团队把过去做 Figma-to-Code 的技术沉淀,升级成完整的“设计→计划→编码→预览”流水线。
  • 支持 VS Code、Cursor、Windsurf 插件,一键装好就能用。

通用代理常常漏掉组件库细节、写出不能编译的代码;Kombai 内置对 30 + 常见库的 RAG 规则和最佳实践,生成代码就像“资深前端”复用组件一样自然。

把 Figma、截图、文字都能拆成「可复用 section → 组件 → 样式」三层结构,再转成 React / Vue / Svelte 代码,准确率比同级 LLM + MCP 方案高出 20 % 以上。

Kombai 会先扫描仓库,识别主题、组件、路由等“前端元数据”,再用搜索 + 索引做精准片段检索,避免把不相关文件拉进上下文。

  • 可编辑开发计划:大任务先生成 markdown 计划,你可以改后再让 AI 开工。
  • Sandbox 预览 & 自动修复:生成后自动起本地服务器,发现 TS / Lint 报错就自愈。
  • 无写入默认:除非你点 Save,AI 不会改动本地文件,安全可回滚。

在 200+ 真实前端任务 Benchmark 里,Kombai 编译通过率 96 %、功能实现率 43 %,全面领先 Gemini 2.5 Pro + Agent、Claude Sonnet 4 + Agent 等组合。


丢一份 Figma,Kombai 自动拆层、识别资产,输出与你项目栈匹配的文件结构;复杂设计也能保持像素级还原。

官方演示里,Kombai 在 OSS 项目 0.5 M 行 代码中加入完整 “Roles & Permissions” 页面,仅用两轮对话搞定。

切换到 Ask,提问“这个组件库 Button 的变体有哪些?”——Agent 只读不写,帮你熟悉仓库结构。

点击 Run in Sandbox,在浏览器里即时预览;发现对齐或交互不合心意,直接自然语言让 Kombai 重新改。


步骤操作
安装在 VS Code 扩展市场搜索 Kombai – AI Agent for Frontend Devs 并安装。
登录通过弹出的浏览器页注册 / 登录 Kombai 账号。
配栈设置框架(Next.js / React 19 / Vue 3…)、UI 库、状态管理等。
输入支持 Figma / 图片 / 文字 三种输入类型。
审核计划确认或编辑 AI 生成的开发计划,然后点 Approve Plan & Start Coding
预览 & 保存预览 OK 后,挑选文件保存回本地或新建仓库。

  • 想把 设计—开发 链路压缩到分钟级的独立开发者
  • 维护 大型 Mono-repo、需要持续重构的团队
  • 出海项目,追求 高质量 UI 体验 又没人手写前端

前端的难点,从来不是 “写几行 HTML”,而是理解设计、复用组件、保证规范一致。Kombai 把这些“经验活”都交给 AI,你只管挑最终效果。

你会在哪个项目里试一把?评论区聊聊你的想法!

Figma IPO首日涨幅达 250%:AI 设计工具独角兽建议在 90-110 美元区间

Figma于2025年7月31日在纽约证券交易所正式上市(NYSE: FIG),创下了2025年最大科技IPO记录。公司以33美元定价发行3600万股,但首日表现超出预期:开盘价85美元(涨幅157%),盘中最高触及125美元,收盘115.5美元,首日涨幅达250%,收盘市值563亿美元

通过与2020年Snowflake(SNOW)IPO的深度对比分析,我们发现Figma在更加严峻的宏观环境下依然实现了优异表现,体现出其独特的市场地位和投资价值。

本报告建议:短期谨慎观望解禁压力,中长期看好AI时代设计协作平台价值重估,建议等待解禁期调整后在90-110美元区间分批建仓,目标市值700-800亿美元

Figma IPO首日表现突破市场预期

  • IPO定价:33美元(发行区间最终从25-28美元上调至30-32美元)
  • 开盘表现:85美元,较IPO价格溢价157%
  • 日内波动:最高125美元(+279%),最低75美元(+127%)
  • 收盘价格:115.5美元,首日涨幅250%
  • 成交量:超过2000万股,换手率约56%
  • 收盘市值:563亿美元

认购热度空前

  • 超额认购倍数达到40倍以上,显示机构投资者强烈需求
  • 采用限价IPO模式,要求投资者提交具体报价而非市价认购
  • 首日暴涨反映市场对设计协作平台在AI时代价值的重新认知

与预期的偏离

  • 市场原预期温和上涨(20-50%),实际表现远超预期
  • 高涨幅主要驱动因素:AI集成能力、市场垄断地位、盈利能力改善
环境因素Figma (2025年7月)Snowflake (2020年9月)
联邦利率4.25-4.5%(高利率环境)0-0.25%(零利率政策)
通胀水平持续通胀担忧刺激政策推动经济复苏
市场流动性紧缩周期中的谨慎投资极度宽松的货币环境
科技股情绪AI驱动的结构性复苏疫情受益的全面上涨

2025年IPO市场特征

  • IPO市场正在复苏但仍相对谨慎
  • 投资者更加关注盈利能力和现金流
  • AI相关公司获得估值溢价
  • 高质量SaaS公司重新受到青睐

2020年IPO黄金期

  • 全球IPO融资额接近历史高位
  • 美联储”无上限”量化宽松
  • 科技股享受疫情红利
  • 市场情绪极度乐观

三、公司基本面对比:Figma vs Snowflake

Section titled “三、公司基本面对比:Figma vs Snowflake”
指标维度Figma (2025)Snowflake (2020)
营收规模~10亿美元(年化)~5亿美元(年化)
增长率46%174%
毛利率91%~60%
客户数量45万企业3,117个
市场渗透设计工具市场70%份额云数仓新兴市场
竞争壁垒云端协作+AI集成存算分离架构

Figma客户特征

  • 企业客户:45万注册企业,年付费$10万+客户1031家(同比增长47%)
  • 用户构成:月活1300万,其中67%为非设计师用户
  • 国际化程度:53%收入来自海外市场
  • 标杆客户:Netflix、Stripe、多邻国等知名企业

Snowflake客户对比

  • 企业客户:3,117个客户(IPO时),福布斯500强146家
  • 大客户增长:年收入$100万+客户数量快速增长
  • 地域分布:主要集中在美国市场
  • 客户留存:NDR高达158%

3.3 技术护城河分析Figma技术优势

Section titled “3.3 技术护城河分析Figma技术优势:”
  • 云端原生:无需本地安装,浏览器即用
  • 实时协作:多人同时编辑,版本自动同步
  • AI深度集成:150+次提及AI功能,显著提升设计效率
  • 生态系统:完整的设计到开发工作流

Snowflake技术护城河

  • 存算分离:独特的架构设计
  • 多云支持:跨AWS、Azure、GCP部署
  • 弹性计算:按需扩缩容能力
  • 数据共享:跨组织安全数据共享
财务指标FigmaSnowflake
上市时估值$563亿$707亿
P/S倍数56倍50倍
盈利状态2025Q1实现盈利持续亏损状态
现金状况10.7亿美元现金充足现金储备
NDR132%158%

Figma收入质量

  • 订阅制模式:可预测性强的递归收入
  • 毛利率优势:91%毛利率远超SaaS行业平均
  • 客户粘性:132%净美元留存率
  • 经营杠杆:规模效应开始显现

Snowflake收入特征

  • 消费型定价:基于使用量的灵活定价
  • 高速增长:174%增长率但面临基数扩大压力
  • 投入密集:销售费用率高达44%
  • 研发投入:研发费用占收入38-45%

Figma现金流健康度

  • 经营现金流利润率28%
  • 2025Q1实现净利润4500万美元
  • 自由现金流持续改善
  • AI投入期后盈利能力有望进一步提升

Snowflake现金流对比

  • 经营现金流持续为正
  • 自由现金流8.1亿美元(2024财年)
  • 净亏损持续但收窄趋势
  • 高增长高投入的典型模式

五、资本市场表现与股价走势类比预测

Section titled “五、资本市场表现与股价走势类比预测”

Snowflake历史股价表现

  • IPO首日:120美元→253.93美元(+111.6%)
  • 历史高点:2021年11月触及401.89美元(IPO后13个月)
  • 当前水平:约220美元(2025年7月)
  • 关键节点:巴菲特2024年Q2清仓,股价一度回落至IPO价格

解禁时间表预测

  • IPO后6个月:员工股权开始解禁
  • IPO后12个月:主要投资机构解禁
  • IPO后18个月:创始人股权完全解禁

解禁压力评估

  • 创始人Dylan Field持有超75%投票权,减持动机相对较低
  • 机构投资者可能面临退出压力
  • 员工期权解禁或带来短期波动

基准情景(概率60%)

  • 目标价位:150-180美元
  • 驱动因素:AI功能商业化成功,客户付费意愿提升
  • 风险因素:解禁压力,宏观环境变化

乐观情景(概率25%)

  • 目标价位:200-250美元
  • 催化剂:AI时代设计工具价值重估,Adobe收购传言重燃
  • 市值目标:700-800亿美元

悲观情景(概率15%)

  • 目标价位:80-120美元
  • 风险触发:竞争加剧,经济衰退,AI替代威胁

竞争风险

  • Adobe等传统软件巨头反击
  • 新兴AI设计工具挑战
  • 开源替代方案普及

技术风险

  • AI发展可能颠覆传统设计流程
  • 云端协作优势被追赶
  • 技术更新换代风险

市场风险

  • 高利率环境持续
  • 科技股整体估值回调
  • 宏观经济衰退影响

短期策略(0-6个月)

  • 建议观望:等待解禁期波动后再行布局
  • 关键价位:90-110美元区间为较好买入时机
  • 仓位控制:初期建仓不超过3-5%

中期策略(6-18个月)

  • 逐步加仓:AI功能商业化验证后增加配置
  • 目标仓位:5-8%权重
  • 止损设置:跌破75美元考虑减仓

长期策略(18个月以上)

  • 核心持仓:AI时代设计协作平台的稀缺标的
  • 估值目标:700-800亿美元市值合理
  • 持有逻辑:数字化转型+AI普及的双重红利

Figma IPO成功验证了其在AI时代设计协作领域的独特价值。与Snowflake相比,Figma在更加严峻的宏观环境下实现了更高的首日涨幅,体现出其:

  1. 更优质的财务基本面:91%毛利率和已实现盈利
  2. 更强的技术护城河:云端协作+AI集成的双重优势
  3. 更广阔的市场空间:设计民主化和AI工具普及的时代机遇

投资建议:短期谨慎观望,中长期积极看好。建议等待解禁期调整后在90-110美元区间分批建仓,中期目标价160-200美元,长期看好其成为AI时代设计协作领域的平台型公司,合理估值700-800亿美元。

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

对标n8n, Dify, Coze? Google Opal 用一句话生成 AI 工作流

Google 再放大招!Opal 把「写一句话→拖方块」的神操作带进 AI 工作流,一分钱不用就能造出能跑的小应用。 上线不到一周,它已经掀起 n8n/Zapier 要失眠 的热议:描述需求 → AI 自动串联 Gemini 模型、搜索、外部工具,再给你一个可视化流程图,随时拖拽微调,还能一键分享给同事。


  • Google Labs 的全新实验产品,主打「自然语言 + 可视化」双模式,现阶段 100% 免费,且仅限美国账号内测
  • 定位为 AI mini-app builder:把输入框、Prompt、Gemini 模型调用、工具 API 等步骤自动排成流程节点。

你描述:「把会议纪要变成行动清单」。 Opal 立刻生成“上传纪要 → Gemini 摘要 → 生成 todo → 输出邮件”四个节点,流程一目了然。


自然语言就能拉通多个模型与工具,省掉代码和 YAML。

想插入新步骤、改 Prompt?直接拖方块或再打一句指令即可。

官方自带 Starter Gallery,博客写手、缩略图生成器、数据爬虫等模板随取随改。

生成链接后,同事用自己的 Google 账户即可体验,方便协作测试。

目前跑在 Google 后端,不用自己养服务器,适合灵感验证和团队内部 Demo。


场景描述一句话Opal 自动生成的节点
内容创作“写一篇 800 字 SEO 友好博客”关键词→Gemini 撰稿→SEO 校对→发布
销售跟进“把 CRM 新线索同步到 Slack 并写个跟进邮件草稿”Webhook→Gemini→Slack API→Gmail 下草稿
产品运营“分析用户反馈并生成周报”CSV 上传→Gemini 情感分析→图表→Google Docs

平均 10 分钟就能跑通一个最小可用版本


维度Opaln8n
上手门槛纯自然语言,面向非技术同学需要理解节点参数、可能写 JS
AI 模型原生接入 Gemini,Prompt 可视化通过第三方插件或自配
价格当前免费,云托管社区版免费,商用需自托管或付费
局限仅限 US Beta,暂不支持自定义代码灵活度高但学习曲线陡峭

  1. 加入 Google Labs 等候名单:登录 labs.google.com → 申请 Opal 内测。
  2. Describe:在对话框输入需求,按回车。
  3. Refine & Share:在视觉流程里拖拽微调 → 点击 Share 生成链接。

  • 地域限制:目前仅支持美国账号,国内需科学方式体验。
  • 扩展性:暂不开放自定义函数,复杂业务可能受限。
  • 机会:流程模板市场、Prompt 组件库、团队协作版或将成为下一波红利。

Opal 让“AI 应用开发”从写代码降级为写一句话 + 拖方块。 你想到的任何自动化点子,基本都能在午休前跑起来。**你会拿它先做什么?**欢迎评论区聊聊。

Prompt Optimizer 提示词优化器:让 AI 指令一键“开挂”


写提示词就像写诗——灵感来了却难以落笔。Prompt Optimizer 把这种“玄学”变成“工程学”:一句原始指令,点一下就拆解、补全、格式化,让大模型输出更稳、更准、更省钱。


  • 系统 / 用户双通道优化:同时改写 System PromptUser Prompt,提高上下文一致性。
  • 实时对比:左右分屏查看优化前后效果,新手也能立刻感受差距。
  • 多模型集成:内置 OpenAI、Gemini、DeepSeek、智谱等主流接口,想省 API 费可切小模型。
  • 纯前端 & 本地存储:数据不出浏览器,私活也能放心优化。
  • MCP 服务器:Docker 镜像自带 Model Context Protocol,可无缝连上 Claude Desktop 等工具。

打开 https://prompt.always200.com/,输入提示词,点 Optimize,立刻看到重写结果。零门槛、零配置。

Win / macOS / Linux 一键安装,自动更新、无跨域,让本地 Ollama 也能吃到优化后指令。

写文档时随手选中文本 → 右键 Prompt Optimizer,灵感碎片直接升级为结构化指令。

Terminal window
docker run -d -p 8081:80 linshen/prompt-optimizer

五秒起容器,内网部署、加密访问,团队一起用也安全。


典型需求优化前优化后结果
小模型角色扮演“当侦探破案”加入背景设定、输出格式低成本 LLM 也能沉浸式对话
知识抽取“帮我把文章变成三元组”明确字段、示例、边界条件输出 JSON 100% 可解析
诗歌创作“写首春天的诗”主题、情感、修辞、行数AI 作品更贴合个人口味

  1. 挑模型:点右上 ⚙️Model Manager,填 API Key,选最便宜那一档先试。
  2. 写原始提示:别怕简陋,工具会帮你拆句、加细节。
  3. 一键优化 & 对比:看左侧原句、右侧优化句,满意就复制粘贴给 LLM 生产。

代码 MIT 开源,11k⭐、1.4k Fork;数据只在本地或你自建的容器里流转,没有第三方云端。


作者在 Roadmap 中透露:将引入 Prompt 市场团队协作一键 A/B 测试 等功能,社区也在贡献更多模型适配。


下一次卡在“怎么写提示词”时,别憋——丢给 Prompt Optimizer 试试

你觉得这种“提示词自动润色”会彻底改变你的工作流吗?欢迎在评论区聊聊 🚀

对标 v0/Lovable/Bolt:本地跑 Dyad AI 开发应用


还在为 v0/Lovable/Bolt 的额度、收费、网络延迟抓狂?Dyad 把同样的 AI 造 app 魔法直接搬到你电脑本地,免费、开源、无限制。下载即用,不用注册账号,也没有云端锁定风险。今天这篇文章带你 10 分钟搞懂它的亮点、安装步骤与高阶玩法,让你的灵感马上落地。


  • 定位:本地运行的 AI App Builder,与 v0、Lovable、Bolt 一样能「一句话生成前端 + 后端 + 数据库 + Auth」,但所有代码都存你机器里,私有、可控。
  • 社区热度:GitHub 2.4k⭐、Product Hunt 4.9/5 评价,一周下载量破 10 万。
  • 目标用户:想要快速验证点子、又对数据隐私和成本敏感的开发者 / 设计师 / 创业者。

  • 运行在 macOS / Windows,可离线使用,避免云端延迟与合规担忧。
  • 支持 Ollama 本地大模型,CPU/GPU 跑得动就能完全离线生成代码。
  • 深度集成 Supabase:一句「加登录」就生成 Auth、PostgreSQL 表和 Edge Functions。
  • RLS 默认开启,安全策略 AI 自动写好,你只需审核。
  • 内置 Auto 智能调度,可按需切换 OpenAI、Gemini、Claude、OpenRouter 等模型;免费额度用完就换家供应商。
  • 本地模型与云端模型无缝同屏对比,随时热切换。
  • 一键推送 GitHub,Dyad 自动生成仓库并处理 Git 流程;进阶用户可继续用 Git CLI / Desktop)。
  • 内置预览服务器,实时热更新,支持版本回滚、分支实验。
  • Apache-2.0 许可证,社区参与度高,问题响应快。
  • Pro / Max 付费仅加速 AI 调用,不限制核心功能。

步骤操作提示语示例
① 下载官网选择 v0.14 稳定版,Mac/Win 双击即装[配图:下载按钮]
② 安装 Node.js未安装会在首页 banner 提醒,点击跳转n/a
③ 填 API Key推荐先用 Gemini 免费 250 条/天额度在设置里粘贴 Key
④ 新建 App聊天框输入「做一个待办清单支持拖拽排序」“Build a Kanban todo app”
⑤ 审核 & 预览AI 生成代码 → 点击 Approve → 右侧实时预览[配图:预览界面]

300 字配图:可截屏安装界面 + 预览窗口


只需在聊天窗口说「接 Supabase 并加邮箱登录」→ 浏览器弹窗授权 → 回到 Dyad 即完成链接。此时数据库表、Auth、Server Functions 都已就绪。

进入 App Details → Sync to GitHub,Dyad 会自动 push 并生成 Public/Private Repo。发布到 Vercel 的教程在 Publishing your App 页面里一步步跟着走即可)。

在右上角模型下拉中选择 Claude-SonnetGPT-4.1 或本地 Ollama/Llama-3,观察 UI 与代码质量差异。不同模型互补,复杂项目常用双模型 AB 测试。

维度Dyadv0 / Lovable / Bolt / Replit
部署本地+可云纯云端
私密性代码不出机器需上传
成本免费不限流额度或订阅费
后端Supabase 一键整合多数只管前端
模型BYOK / Local固定供应商

详细对比见官方 Comparison 文档,社区帖子也认可 “Dyad = 无锁定版 v0”。


在 AI 生产力井喷的 2025,下一个爆款应用可能只差一条 prompt。Dyad 把大厂才有的端到端开发体验塞进桌面应用,重新把速度、隐私、成本交还给个人开发者。 如果你也想试试「一句话造产品」的爽感,现在就下载,实现你的灵感!

Claude Code 太贵用不起?自建账号拼车共享是趋势

Anthropic 刚刚推出「每周配额」,团队拼车账号 3 天就可能超限;自建 claude-relay-service 中转站,支持多账户池自动轮换,无惧最新限额。用 Docker-Compose 3 分钟上线,一人一把 API Key,照样跑满整周!

Section titled “Anthropic 刚刚推出「每周配额」,团队拼车账号 3 天就可能超限;自建 claude-relay-service 中转站,支持多账户池自动轮换,无惧最新限额。用 Docker-Compose 3 分钟上线,一人一把 API Key,照样跑满整周!”
  • 8 月 28 日起,Claude Code 订阅新增「按周计量」;官方点名要打击 24/7 后台跑脚本账号共享
  • Anthropic 估算 不到 5 % 用户受影响,但重度开发者大概率中招
  • 痛点:多人共用一号 → 配额飙升 → 提前触顶 → 团队开发被迫停摆。

你也担心突然「被停机」吗?留言聊聊你的踩坑经历👇


二、为什么选 claude-relay-service?

Section titled “二、为什么选 claude-relay-service?”
功能场景价值
多账户池 & 自动轮换拼车 N 号也不怕封顶
OpenAI/Claude 双格式 API老项目零改动接入
一键 OAuth 授权新账号 30 秒入池,再也不用手动 Cookie
按 Key 计费统计精准核算谁用掉多少 token,分钱不再吵架
客户端白名单防止 Key 外泄,被脚本薅爆

风险提示:自建中转可能违反 Anthropic ToS,请自行承担责任。


三、3 分钟 Docker-Compose 快装指南

Section titled “三、3 分钟 Docker-Compose 快装指南”

跟着抄就能跑

准备项目

Terminal window
# 克隆项目
git clone https://github.com/Wei-Shaw/claude-relay-service.git
# 进入目录
cd claude-relay-service
# 复制 .env.example
cp .env.example .env

修改 .env(务必改成随机值)

# 必填:安全密钥(请修改为随机值)
JWT_SECRET=your-random-secret-key-at-least-32-chars
ENCRYPTION_KEY=your-32-character-encryption-key
# 可选:管理员凭据
ADMIN_USERNAME=cr_admin
ADMIN_PASSWORD=your-secure-password

一键启动

Terminal window
docker-compose up -d

启动完,浏览器打开 http://<服务器IP>:3000/web,如本地 http://localhost:3000/web,日志里能看到自动生成/自定义的管理员账号。

登陆后 Web 界面预览效果:

管理面板

API Keys 管理

账号管理

使用指南

  • 一人一 Key:在后台「API Keys」页为每位同事生成密钥,可设速率/模型限额防滥用。

  • 环境变量:环境变量里把 ANTHROPIC_BASE_URL 指向 http://localhost:3000/api/, ANTHROPIC_AUTH_TOKEN 指向上面生成的密钥,不改业务代码。

Terminal window
# 环境变量
export ANTHROPIC_BASE_URL="http://localhost:3000/api/"
export ANTHROPIC_AUTH_TOKEN="cr_<your_token>"
# 启动 Claude Code
claude
  • 监控面板:实时看 token 消耗,配额预警提前拉闸,避免突然触顶。

价格/周期备注
2核4G 轻量云¥30-60/月跑 Relay+Redis 足够
Claude Max 200 刀可多人拼人均成本随人数递减
域名+CDN选配需公网 HTTPS

合规提醒:官方已明确禁止转售、共享账户;若被检测到异常流量,账号可能被封或限流。


现在就部署自家「小中继」,把配额握在自己手里。 转发给还在担心被限流的同事,一起薅到极致!


你准备怎么分配 Key & 配额?欢迎在评论区支招~

单词默写不犯难:ChatGPT 给出小学三年级每天 1 小时英语词汇训练方案

ChatGPT 设计了一个适合小学三年级学生的英语单词默写训练方案:每天花1小时,结合画画、游戏、家长互动,重点解决拼写记不住和默写紧张的问题,并确保每周掌握单词量合理有效。

针对一位三年级小学生的英语单词默写需求,我们设计了一套科学有趣的训练方案。该学生每周计划掌握约70个新单词,但根据科学建议我们会进行调整。学生每天有1小时练习时间,父母可陪同参与。孩子喜欢画画和游戏,目前主要困难是记不住单词拼写,在默写时容易紧张。下面我们将从每周单词数量、每日练习安排、记忆技巧、家长协助方法、缓解默写紧张的游戏,以及每周复习测验六个方面进行说明。

一、每周新单词数量的科学建议

Section titled “一、每周新单词数量的科学建议”

研究表明,每周集中学习10~12个新单词效果更佳。过多的新词会超出孩子的记忆负荷,导致遗忘率上升。以中国小学英语新课标为例,小学阶段总词汇量约505个基本单词。新版三年级教材上册包含111个单词(旧版为64个)。按这个速度计算,小学生平均每周只需掌握5~10个单词左右。

科学建议:将每周新学单词数量调整到20~30个左右更为合理,可根据孩子的接受能力浮动。例如每周学习25个新词,每天约5个。这样既能保证孩子有足够重复巩固的机会,又不会因为数量过多而产生畏难情绪。重质不重量,确保孩子真正掌握每个单词的拼写和用法,比一味追求数量更重要。

二、每天1小时练习时间安排(听、说、读、写、玩)

Section titled “二、每天1小时练习时间安排(听、说、读、写、玩)”

每天1小时的练习需要合理分配听、说、读、写、玩的环节,做到动静结合、张弛有度。下面以表格形式给出每日练习安排建议:

时间段活动内容(技能侧重)说明与目的
5 分钟热身与回顾(听、说)父母朗读前一天学过的单词或短语,孩子跟着出发音。一边拍手或做动作一边念,可以调动兴趣。通过快速回顾已学词汇,激活记忆,为当天学习做好准备。
10 分钟新单词导入(听、说)利用录音或家长示范,3~5个新单词的正确发音,并跟读练习发音。家长可将单词放入简短句子中读给孩子听,帮助理解词义。孩子在这一环节主要培养听音辨字和开口模仿,初步认识新词。
15 分钟认读与理解(读、说、玩)出示新单词的卡片或写在白板上,让孩子出单词并说出中文含义。结合图片或孩子自己画一个小插图,加深视觉联想记忆。可以玩“小老师”游戏,让孩子给每个单词造句或讲小故事,边说边记,增强理解。这一环节兼顾阅读认知和口语表达,并融入了游戏元素。
15 分钟书写练习(写)让孩子在笔记本上新单词,每个单词用拼音或分音节划分音节后书写三遍。例如“because”划分为be-cause再书写。可以变换有趣方式,如彩虹字母书写(每个字母用不同颜色)、在沙盘中写字母等,增加趣味。家长要及时检查书写,纠正拼写错误,指导孩子注意字母顺序。通过书写加深单词的拼写记忆。
10 分钟趣味单词游戏(听、读、写、玩)用游戏巩固当天所学。例如:进行拼写接龙游戏,家长说一个单词,孩子写下第一个字母,家长续写第二个字母,轮流拼出单词;或者玩“字母消失”游戏:将单词写出后让孩子闭眼,家长擦去其中一个字母,孩子睁眼后说出缺了哪个字母。也可玩单词拼图、字母卡片拼单词、听写抢答等。通过游戏在轻松氛围中强化拼写。
5 分钟小测验与反馈(听、写)家长口头提问2~3个当日新学单词,请孩子尝试默写。尽量模拟学校默写形式,但气氛轻松。然后一起对照检查拼写是否正确。对写对的给予表扬,写错的不要批评,而是和孩子一起拼读纠正。最后用贴纸或笑脸做好记录。这个环节帮助孩子及时了解掌握情况,做到当日查漏补缺。

以上安排总计约60分钟,各环节时间可根据孩子注意力适当调整。每天的练习既涵盖听说读写各方面,又穿插了游戏和休息转换,保证孩子始终保持兴趣和专注度。在家长陪同下,以鼓励和互动为主,营造愉快的学习氛围。

三、适合该年龄段的拼写记忆技巧

Section titled “三、适合该年龄段的拼写记忆技巧”

三年级孩子正处于形象思维和兴趣导向的年龄段,可以采用多种趣味记忆技巧来帮助记忆单词拼写。以下是几种有效的方法:

  • 图像联想记忆:利用孩子爱画画的特点,把单词和图像联系起来记忆。例如,记忆单词“elephant”时,可以让孩子画一头大象,在大象身体上标出“elephant”单词的字母;看到图像就能联想到字母拼写。对于抽象词,可以借助谐音或形象化的方法,将单词的形状与熟悉的事物联系,如把单词看成一幅画。这种视觉化记忆能调动大脑的图像记忆能力,提升记忆效果。

  • 分音节拼读记法:将长单词拆分成易读的音节或拼音块,一部分一部分地记。比如“remember”可以拆为“re-mem-ber”,每次记住其中一节,再连起来拼写。对于多音节单词,也可以编句子帮助记忆每个音节的发音和顺序。例如记忆“mammoth”(猛犸象)时,用一句话“My Aunt Mary’s Manly Hat”来帮助记忆mam-moth两部分(每个单词的首字母对应原单词的拼写)。这种拆分法让长单词变“短”,降低记忆难度。

  • 有趣口诀与首字母助记:编创顺口的句子或口诀,利用单词字母的首字母串联成一句话,加深印象。例如,单词“because”的7个字母B-E-C-A-U-S-E,可以对应一句英语短语:“Big Elephants Can Always Understand Small Elephants”(大象总能理解小象)。滑稽的句子既包含了单词的每个字母开头,又有意义便于记忆,让孩子在乐趣中牢记拼写。家长也可和孩子一起,用中文或英文为容易拼错的单词编造小口诀,越有画面感和趣味性越好。

  • 押韵歌谣记忆:利用儿歌或韵文来记单词拼写和发音。把单词的拼写规则编进简单的歌谣中,或者寻找单词尾音相同的一组词一起念。如通过儿歌记住“字母Q后面总跟着U”的规则,或者把字母表歌用来记拼写。押韵可以帮助儿童更好地感知音律和字母模式。例如让孩子发现同韵词的规律:掌握了“ball”的拼写,就很容易记住“tall, call, fall, hall”等押韵词的拼写。借助熟悉的旋律唱出单词字母,也是孩子喜闻乐见的记忆方式。

  • 多感官记忆:鼓励孩子用听觉、触觉和运动参与背单词。例如,边拍手或跺脚边拼读单词节奏;用彩色橡皮泥捏出单词的字母形状;在纸上先描红字母再尝试默写;闭上眼用手指在空中或手心写字母。这些多感官参与的方法能增强孩子对字母序列的肌肉记忆和感知记忆,让背单词不再只是静态的眼睛和大脑活动。孩子喜欢动手动脑,玩中学会更加牢固。

综上,结合图像、声音、节奏、肢体动作等方法,能够大大提高拼写记忆的效率和乐趣。家长不妨和孩子一起创造属于自己的记忆小技巧,让记单词变成一件充满创意的事情。

父母的陪伴和指导在孩子的单词学习中非常重要。家长可以采取以下方式来协助孩子高效、有趣地学习:

  • 参与游戏,共同学习:利用孩子喜欢游戏的特点,家长可以扮演游戏伙伴。例如一起玩“拼字接龙”或“拼写雪人(Hangman改编)”等游戏,让学习过程充满欢笑。家长也可以自制奖励机制,比如拼对一个词就给孩子一个小贴纸或画一颗星星,以游戏奖励机制激发动力。

  • 朗读单词,引导发音:家长每天陪孩子朗读单词表或例句,给孩子做正确发音示范。在孩子拼读时,耐心倾听并及时纠正发音与拼写错误。可以采用分音节拼读的方式一块块拼,并鼓励孩子大胆开口模仿。通过亲子共读,孩子既练习了听说能力,又加深了对单词的记忆。

  • 创设语言环境:在日常生活中融入所学单词,加深印象。家长可以在家里贴上英语标签(如冰箱上贴“fridge”),或在看到相关物品时用英语说出,让孩子情景复习。散步时玩“我看见…”游戏(I spy),轮流说出看到的物品英语单词。让孩子体会到单词不是为了默写而学,而是可以实际使用的语言。

  • 鼓励和正向反馈:在学习过程中,家长应多给予积极评价。当孩子拼对一个单词时,及时表扬:“你记得真棒!这些字母顺序都对了。”对于拼错的单词,避免责备,可说:“这个单词有点难,我们再试一次好吗?”并指出其中关键字母让孩子注意。可以允许孩子先按发音拼写尝试(哪怕写成“bkz”表示 because 这样的拼音拼写也没关系),认可他们的努力再逐步纠正。温暖的鼓励能建立孩子的信心,减少对默写的恐惧。

  • 协助制作学习工具:家长可以和孩子一起动手制作单词卡片、单词海报或词汇本。例如为容易混淆的单词建立一个“错词本”,每次错词写在本子上,日后翻看巩固。或者像前文提到的“海报单词”方法:每个难词画张海报,集齐5个✔️就算过关。家长和孩子一起DIY学习用具,不仅增加亲子互动,还能让孩子更乐于使用这些工具自我检测。

总之,家长的陪伴应当是引导者和伙伴的角色,通过一起读、一起玩、一起制作,在不知不觉中帮助孩子掌握单词。创造轻松的家庭学习氛围,让孩子感受到父母的支持和学习的乐趣,比起严厉督促更能提高效率。

五、缓解默写紧张的练习活动与小游戏

Section titled “五、缓解默写紧张的练习活动与小游戏”

默写时的紧张往往来自对错误的恐惧和陌生的考试氛围。我们可以设计一些有针对性的练习和小游戏,帮助孩子在模拟中建立信心,在趣味中克服紧张。

通过将拼写练习融入游戏和互动,比如让孩子用字母积木拼单词等方式,可以营造轻松的练习环境,减轻默写带来的压力。家长的陪伴和鼓励使孩子在练习中保持愉快的心情,有助于提高记忆效果和信心。

  • 角色扮演默写:家长和孩子交换角色,玩“老师和学生”的游戏。让孩子当一次“小老师”,给家长出单词默写题目。家长故意写错几个单词,请“小老师”来批改打分。幽默的角色互换能让孩子体会到当考官而不是考生的感觉,放松对考试的紧张。同时在批改中再次巩固了单词。当重新回到孩子当学生,家长当老师模拟默写时,孩子也会感觉更熟悉放松。

  • 计时挑战赛:有时紧张来自于时间压力。我们可以将默写练习设计成“一分钟拼写挑战”。家长设定计时器,在1分钟内说出尽可能多的学过的单词,让孩子尽快写下。这更像游戏而非考试。每次挑战后统计拼对了多少词,与自己之前的成绩比赛。这种个人挑战的形式,让孩子关注于超越自己,而非害怕出错。随着次数增加,孩子会发现自己进步,从而建立信心。

  • **拼词接力球:**准备一个软球,进行“拼词投球”游戏。玩法是家长先说一个单词并把球抛给孩子,孩子需要说出该单词的第一个字母,然后将球抛回给家长。家长说出第二个字母再抛给孩子,如此往返,一起把单词的字母顺序拼出来。如果中途有人说错了字母,也没关系,重新开始这个单词即可。这种边运动边拼写的练习,把默写变成了合作游戏,身体活动还能舒缓紧张情绪。全家人一起玩更有趣,欢笑中不知不觉就把单词默写练熟了。

  • 错词消灭游戏:针对孩子在默写中总是特别紧张的几个“拦路虎”单词,可以制作“炸掉错词”小游戏。将这些单词分别写在小卡片上。家长和孩子将卡片铺在桌上,好似游戏关卡。家长扮演出题人,说中文让孩子写英文。如果写对了,就“砰”地盖一个小图章(表示炸弹拆除了),如果写错了,先不急着纠正,而是把卡片留在一边,稍后一起研究这个词为什么错、应该怎么记。通过这种游戏化的闯关形式,孩子会有击败难题的成就感,而不会一味紧张害怕遇到它们。

  • 放松训练:在正式默写前,教孩子一些简单放松技巧也很重要。例如深呼吸三次,脑中快速回想一次要默写的单词表,然后告诉自己“我已经准备好了”。家长可以和孩子一起做几秒钟的眼保健操或摇摇手放松手指,让身体放松下来再开始写。还可以准备一张“加油微笑纸条”贴在孩子书桌上,上面写着鼓励的话或画个笑脸,在默写前让孩子看一眼,建立积极心态。心理放松好了,上考场就不容易紧张慌乱。

通过上述这些活动,孩子可以在模拟和游戏中逐步适应默写的形式,把“考”变成“玩”。当真正面对学校默写时,他/她会联想到家里练习时的轻松场景,心态更平和,从而发挥出应有水平。

六、每周复习与测验建议(查漏补缺)

Section titled “六、每周复习与测验建议(查漏补缺)”

要将学过的单词真正掌握,科学的复习和测验机制非常关键。下面是每周循环中复习巩固的建议:

  • 定期小测验:建议每周末或下周开始时,由家长组织一次小测验,内容包括本周的新单词,以及前几周反复出错的旧单词。形式可以多样:既可以是正式的书面默写,也可以是口头拼写或选择题等。在测验中尽量让孩子独立完成,然后家长一起对答案。定期测验就像里程碑一样,检查阶段性学习效果,督促孩子查漏补缺。

  • 错词本与巩固:将每次小测验中拼错的单词记录在错词本上。错词本既可以是一个笔记本,也可以用便利贴贴在墙上“错词墙”。下一周开始时,花10分钟和孩子一起来重点复习这些易错词:分析为什么写错,是发音记错了还是字母顺序混淆了,针对性地运用前面介绍的记忆技巧重新记一遍。例如如果因为粗心丢了字母,就编个口诀提醒自己。如果是某个字母总写反,就刻意多写几遍强化手感。通过这种方式确保没有疏漏:每周把漏洞补上,下次测验争取不再错同样的词。

  • 循环复习(间隔重复):单词记忆需要反复巩固。建议采用“间隔重复”的策略来安排复习频率。例如:本周一学的新词,在周二先快速复习一遍(间隔1天),周五再复习一遍(间隔4天),下周一再次复习(间隔7天)。每次复习时可以让孩子尝试闭眼拼写或者听家长读词写下,看是否还记得。如果遗忘了就重点再记。一些实践表明,经过1天、3天、1周的渐进式巩固,单词会从短期记忆转入长期记忆,不容易再忘记。家长可在日历上帮孩子做一个简单的复习计划表,按间隔标注哪些天要复习过去哪些单词,让复习有计划地进行。

  • 综合应用复习:除了机械地背拼写,也可以通过阅读和造句来复习单词。在每周末,家长可以和孩子一起读一篇包含本周单词的小故事或短文,在语境中巩固词汇。如果没有合适材料,可以让孩子用这周学的单词各说或写一个句子。比如本周学了颜色词,就让孩子描述“我最喜欢的颜色…”。通过听说读写的综合应用,检查孩子是否真正理解了单词意义及用法,而不仅是会拼写。这样的复习使单词活起来,也更有趣。

  • 奖励与成就感:在每周复习和测试结束后,给予孩子一些正向反馈和奖励,强化他的成就感。如果孩子顺利掌握了大部分单词,可以在词汇表旁画一个进度条或贴上小星星,直观展示“本周掌握了XX个单词”。若全部通过,还可以适当奖励如看一集英文动画或周末户外活动等。让孩子觉得付出努力后收获了成果,从而更有动力面对下一周的新单词学习。

通过“学习—复习—测验—反馈”的每周闭环,孩子能及时发现并补救自己尚未掌握的词汇,逐步构建起更加牢固的单词库。查漏补缺的过程也是培养自我监控主动学习习惯的过程。当孩子养成每周自主复习的习惯,日后的英语学习将更加轻松高效。

结语:以上方案注重将科学的记忆方法与孩子的兴趣相结合,循序渐进地提高词汇量和默写能力。从控制每周单词数量、每天均衡训练,到运用图像联想和趣味口诀记单词,再到家长的陪伴鼓励,以及克服默写紧张的小妙招,旨在让孩子在轻松愉快的氛围中学有所获。希望通过此方案,孩子能够逐步提升英语单词拼写水平,建立自信心,真正做到乐学善记,在日后的英语学习道路上打下扎实基础。祝愿孩子在家长的陪伴下快乐地挑战单词王国,每周都有新进步!

Claude Code Subagents 把 AI 当公司开发、产品、设计、运营同事

一分钟看懂:contains-studio/agents 收录了 40+ 经过实战打磨的 AI 子代理(Sub-Agents),按“工程、产品、设计、运营…”等部门分类,只要把整包复制到 Claude Code 的 ~/.claude/agents/ 目录,重启即可调用。描述任务——或直接点名代理——Claude 就会自动分派最合适的“专家”上场,帮你从写代码到做市场,一条龙提速。


创业团队常吐槽:需求多、节奏快、没人手。contains-studio/agents 给出的答案,是把琐碎工作外包给一群“专职 AI 员工”。今天咱们来拆解这个开源项目的玩法,并用 3 个高频代理做演示,看看它能帮你省下多少头发。


  • 代理按部门文件夹归档,工程、产品、设计一目了然。
  • 每个 .md 文件都含 YAML 元数据、工具权限与系统提示,方便二次定制。
  • 只描述需求即可触发;也能在提示里手动 @代理名。
  • 支持 “6 天冲刺” 流程:完成功能→自动叫来 test-writer-fixer 写测试;改 UI→whimsy-injector 自动注入趣味。

项目推荐用 完成时长、用户满意度、缺陷率 等指标跟踪代理表现,持续调优。


Terminal window
git clone https://github.com/contains-studio/agents.git
cp -r agents/* ~/.claude/agents/
# 重启 Claude Code

3 步搞定,重启后所有子代理就自动就位。

调用示例

“写一个记录冥想习惯的 App MVP” → rapid-prototyper “最近 TikTok 爆火的 App 点子有哪些?” → trend-researcher “App 评分突然掉了,原因是什么?” → feedback-synthesizer


  • 定位:极限 6 天做出跑得动的 MVP。
  • 拿手活:选技术栈、脚手架生成、CI 模板、Smoke Test。
  • 实战一刻:10 人团队想抢先发布“小红书风格健身笔记”,它能在 48 小时拉起 React-Native、Supabase 后端与基础测试。
  • 定位:捕捉“下一个爆款”线索。
  • 拿手活:多渠道舆情抓取、数据分面分析、机会评分。
  • 实战一刻:老板问“生成式视频赛道还有窗口吗?” 它会输出 TikTok、Reddit、Product Hunt 信号+竞争格局表,让会议有据可依。
  • 定位:把一星差评汇总成可落地改进项。
  • 拿手活:情绪聚类、痛点归因、优先级打分、功能 Roadmap 建议。
  • 实战一刻:App 更新后差评激增,它五分钟就给出“登录慢→增加本地缓存” 等三条高击中率方案。

  1. 指令要具体:越清晰的上下文,代理越聪明。
  2. 多代理协作:设计 + 工程 + 测试串联,整体收益 > 单点调用。
  3. 用数据衡量:跟踪“任务完成时长”“缺陷率”两大指标,持续调参。

AI 员工已经在门口等活,你准备好让他们“打螺丝”了吗? 你最想把哪项工作甩给代理?评论区聊聊! 🗨️


需要补充更多示例或深挖定制技巧?留言告诉我!

把 Claude Code 搬上手机与网页:Claude Code UI 全面上手

Claude Code UI 是一个开源的 Web/移动端界面,连接本机或远程服务器上的 Claude Code CLI,提供对话、文件与 Git 浏览、内置 Shell、会话管理等能力;默认关闭高风险工具,支持按需启用与权限控制。项目采用 GPL-3.0 许可,持续活跃迭代。

它把终端里的 Claude Code 搬上浏览器与手机,帮你在任何设备上用更顺手的方式管理会话与项目。


  • 摆脱纯命令行的局限:Claude Code 官方以 CLI 为主,功能强但对新手/移动端不够友好;UI 将其结构化到网页上,降低操作门槛。
  • 跨设备轻量远程使用:在 iPad/手机上即可查看项目、切换会话、审阅改动,适合通勤、会议或外出场景。
  • 把常用开发动作集中到一个界面:对话、文件编辑、Git 操作、终端与会话历史集中呈现,减少上下文切换。

  1. 桌面 & 移动自适应 响应式布局,桌面/平板/手机均可用,可添加主屏快捷方式(PWA 体验)。

  2. 对话式界面 + 实时流式输出 内置聊天面板与会话管理,支持恢复历史会话、查看时间线与元数据。

  3. 集成 Shell 终端 在 UI 内直接接入 Claude Code CLI 的命令行能力(如执行任务、查看日志)。

  4. 文件浏览与在线编辑 左侧文件树、语法高亮、读写保存、创建/重命名/删除文件与目录。

  5. Git 浏览与基础操作 在界面中查看、暂存、提交与切换分支;近期版本还加入了 push/pull/fetch

  6. 项目与会话自动发现~/.claude/projects/ 自动收集项目;会话自动持久化并可导出。

  7. 安全默认值 & 权限/工具开关 默认禁用所有工具,在设置里按需逐项启用;支持与 Anthropic 的 Permission Modes 对齐(Plan mode 更新中引入)。

  8. 认证与多用户准备 1.1.4 起引入登录/注册流程与基于 SQLite 的鉴权与受保护路由。

  9. 持续迭代 截至 2025‑07‑13 的 v1.5.0 支持在设置中添加 MCP 服务器;此前还有版本管理提示、Vite 7 升级等。

说明:官网安装页写的是 Node.js 16+,而仓库 README 要求 Node.js 20+;实际以仓库 README 为准,建议使用 Node.js 20+


  • 移动端快速处理:通勤路上用手机查看 Claude 的执行进度、补充提示词、微调文件。
  • 远程项目巡检:在浏览器上直连放在云主机或办公室电脑里的 Claude Code,查看日志、提交小修。
  • 代码审阅与教学演示:通过 UI 展示 Claude 的推理过程、变更与 Git 历史,降低团队沟通成本。
  • 与其他生态搭配:例如你已在用 Claude Code CLI 或 SDK/参考文档,UI 让「看得见、点得到」。

前置:确保你已安装并可使用 Claude Code CLI(Anthropic 官方)。

  1. 安装 Claude Code CLI

    Terminal window
    npm install -g @anthropic-ai/claude-code
    # 参考官方文档完成鉴权与配置
  2. 准备运行环境(建议 Node.js 20+) 安装 Node.js ≥20,克隆仓库并安装依赖:

    Terminal window
    git clone https://github.com/siteboon/claudecodeui.git
    cd claudecodeui && npm install
  3. 配置 .env

    Terminal window
    cp .env.example .env
    # 按需设置端口、主机、反向代理/HTTPS 等
  4. 启动服务并访问

    Terminal window
    npm run dev
    # 浏览器访问 http://localhost:你设置的端口
  5. 首次使用建议

    • 在左侧项目列表中,确认 UI 已自动发现 ~/.claude/projects/
    • 打开右上角齿轮,只启用必需的工具,遵循最小权限原则。
    • 需要 Git 同步可在 Git 面板进行查看/暂存/提交,必要时使用 push/pull/fetch。
  6. 移动端安装为「应用」 在手机浏览器“添加到主屏幕”,以 PWA 方式获得更接近 App 的体验。


  • 默认即安全:工具默认关闭,逐项开启;遵循 Anthropic 的 Permission Modes
  • 认证与访问控制:启用登录/注册(v1.1.4 起),限制公网访问,优先内网/SSH 隧道/反代。
  • 版本更新:UI 带有更新检查与提示,按提示 git pull && npm install 升级。
  • 环境要求一致:以仓库 README 的 Node.js 20+ 为准,避免官网页面旧信息导致的不兼容。

如果你已经在用 Claude Code CLI,Claude Code UI 能显著降低跨设备管理与协作的摩擦.

Claude-Code-Remote:用邮件 / Discord / Telegram 远程操控 Claude Code 的终极指南

Claude-Code-Remote 把终端里的 Claude Code 搬上「邮件 / Discord / Telegram」,让你躺在沙发上刷手机也能远程下指令、收进度、续写命令,真正实现 24 × 7 异地协作与长任务托管。


开着 Claude Code 跑单元测试、重构、生成文档,一等就是几十分钟,甚至几个小时。 过去你要守在电脑前盯着 tmux 窗口,现在只需一封邮件就能收到「任务完成」通知,直接回复邮件再下新指令——这就是 Claude-Code-Remote 带来的体验。


  • 任务完成即自动发邮件 / 私聊消息提醒,不怕网络掉线。
  • 在地铁里回一封邮件就能继续驱动 Claude 干活。
  • 通过 settings.jsonHook 机制把通知与命令注入,升级官方 CLI 也不冲突。
  • 仅白名单邮箱 / 用户可下指令;
  • 每条指令映射到独立 tmux Session,互不干扰。
  • 已有社区的 Web UIDiscord Bridge 等扩展,随时接入更多沟通场景。

场景痛点Claude-Code-Remote 解决方案
长时间单元测试 / LLM 自动 Refactor本地等结果浪费时间结果出邮件→回复邮件继续下一步
出差在外临时改 Bug无法 SSH 回公司内网Discord/Telegram 发指令,远端 tmux 即时执行
多地协作 Code Review时区差异大白天在办公室启动 Claude,晚上手机收总结并批量回复优化点

Terminal window
git clone https://github.com/JessyTsui/Claude-Code-Remote.git
cd Claude-Code-Remote && npm install
Terminal window
cp .env.example .env
# 填写 SMTP / IMAP / ALLOWED_SENDERS

Gmail 用户别忘了申请 App Password

~/.claude/settings.json 追加:

"hooks": {
"Stop": [{
"command": "node /path/claude-remote.js notify --type completed"
}],
"SubagentStop": [{
"command": "node /path/claude-remote.js notify --type waiting"
}]
}

然后:

Terminal window
npm run relay:pty # 监听邮箱
tmux new -s project && claude # 正常启动 Claude

完成! 以后 Claude 结束任务就会给你发通知,直接「回复原邮件 → 下一条命令」即可。


  1. 结合 Claude-Code-UI:在手机浏览器可视化查看文件树与历史。
  2. Discord Slash 命令:和团队一起群控 Claude,支持图片上传。
  3. Telegram Bot 自动化:用 /deploy 一键触发 CI/CD。

Claude-Code-Remote 把「等待 → 通知 → 二次指令」三件事拆解,用最通用的邮件/IM 通道把 Claude 彻底解耦出终端,让 AI 代理真正跑在后台,而人类专注高价值决策。 如果你厌倦了守着黑乎乎的 Shell,就把它装上试试吧!


**你觉得这种远程操控方式能帮你省多少时间?**👇 留言区聊聊,你的实战经验可能会成为下一篇案例!

羊毛党噩耗:Claude Code 发布新按周限额政策,打击账号共享和转售

摘要: Anthropic 宣布 8 月 28 日起,将为 Claude Code 订阅用户叠加「按周限额」,并单独对顶配 Opus 4 模型设周上限。官方直言:有人把 Claude 当“24×7 编码矿机”,甚至共享账号、倒卖配额。新规旨在“仅影响不到 5 % 的用户”,却引爆开发者社区——不少“羊毛党”感叹薅不到 GPU 算力了。


还记得之前靠“共享账号 + 自动脚本”无限刷 Claude Code 的日子吗?好日子到头了。 Anthropic 给订阅户发邮件,宣布一套更严的周限额体系,理由只有一句话:公平 + 稳定

“部分高级用户把 Claude 挂后台 24 小时跑,甚至转卖访问权限,拖慢了所有人。”——官方邮件


变动旧规则新规则(8 月 28 日起)
短时限额每 5 小时刷新(不变)保持不变
整体周限额每 7 天刷新
Opus 4 周限额单独周上限
  • 预计影响人群:< 5 % 的高强度用户。
  • Max 5× 档位:每周约 140–280 小时 Sonnet 4、15–35 小时 Opus 4。
  • 超额方案:可按 API 标准费率“续命”。

社区已出现“月卡代刷”“多人拼团”等灰色服务,严重违反 TOS。

Claude Code 用户量激增,官方状态页一个月内 7 次故障。

TechCrunch 指出,类似 Cursor、Replit 6 月已被迫改价;Anthropic此举是“补课”。


  • 基本无感:日常提问、改 Bug、生成脚本,周配额够用。
  • 长时间 Agent、大型单仓库 refactor、并行多实例——触顶概率高。
  • 备用方案:提前拆分任务,或切换本地 LLM/其他云模型兜底。

玩法旧收益新风险
拼团共享低成本薅 GPU周限额一来,人多更易触顶
倒卖算力高买低卖差价账号易被风控,信誉归零
24×7 Agent长时间刷积分/排行榜周限额锁死,收益骤降

VentureBeat 揭露:有用户在 $200 套餐跑出“数万美元”内核时长。

一句话:羊毛党不再有利可图。


  1. 监控用量:自建计量脚本,避免“周中锁号”。
  2. 优化提示:压缩上下文,采用流式链式思考,减少无效 token。
  3. 多模组合:常规任务用 Sonnet 4,高复杂度再启 Opus 4。
  4. 私有化备份:部署轻量模型(如 DeepSeek Coder、Phi3 mini)在本地应急。

  • 定价趋严:OpenAI 曾在 6 月调降 GPT-4 mini 限额;BigCode 平台也陆续设周封顶。
  • 资源竞赛:AI 公司疯狂追加数据中心 CAPEX,以平衡日益膨胀的推理成本。

Anthropic 此举,表面针对“羊毛党”,本质是在算力稀缺时代做一次资源再分配:让 95 % 正常用户享受稳定体验,让超高频玩家为占用付费。你会因此降低对 Claude Code 的依赖吗?欢迎在评论区聊聊你的看法!

互动

  • 你一周大概用 Claude 多久?
  • 如果触顶,你会转向哪款工具?

Claude Code 账号共享利器:Claude Relay Service 部署指南

介绍如何通过 claude-relay-service 实现团队共享 Claude 账号,并重点展示 docker-compose 的部署方法

当你的团队想一起使用 Anthropic 的 Claude AI,却苦于账号无法多人共享、或因地区限制而无法直接访问Claude时,该怎么办?小李和小王就遇到了这样的难题:他们合伙开通了价值不菲的 Claude 高级账号,但如何安全高效地让大家共同使用却让人犯愁。更糟的是,市面上一些第三方Claude镜像服务常常不稳定、甚至存在隐私风险。所幸,开源项目 Claude Relay Service 横空出世,让团队自建Claude中转服务成为可能!它支持将多人的Claude账号集中在一处,由团队成员共同使用,并通过OpenAI兼容接口方便地接入各种应用。本文将深入介绍这个项目的核心特点和使用方法,带你一步步搭建属于自己的Claude中转站,实现团队高效共享Claude账号的愿望。相信阅读完本文,你会发现:原来和小伙伴们拼车Claude,就像合租一台“AI超跑”,既省钱又放心!🚗💨

Claude Relay Service 能够充当你自己部署的Claude “中转服务器”,它像一个管家,替你管理多个Claude账户,并提供统一的API接口供团队调用。以下是它的几项核心能力:

  • 团队账号池 & 多账户轮询:支持添加多个Claude账号组成账号池,服务会自动轮换使用它们处理请求。这意味着如果一个账号达到使用上限或出现问题,系统会智能切换到下一个账号,保证服务不断档。团队合租Claude账号时,每个人的请求将被均匀分配到不同账号上处理,大幅降低了单账号被封禁的风险。

  • OpenAI API接口兼容:Claude Relay Service 同时提供Claude原生接口OpenAI兼容接口。也就是说,你可以用OpenAI API的格式来调用Claude!例如,将第三方应用的API端点指向 http://<你的服务器>:3000/openai/claude/v1/,就能像调用OpenAI一样使用Claude模型 。这一特性让已有的各种AI工具无缝对接Claude成为可能,再也不用费力修改代码适配新接口。

  • 自定义API密钥:为了方便团队内部管理,管理员可以为每个用户生成独立的API Key。每位成员用各自的Key访问Claude Relay Service,中转服务会统计每个Key用了多少请求和Token。管理员可以设置访问权限和速率限制,例如每分钟请求次数上限、每月最大Token用量,甚至限定哪些模型可用等。通过这种方式,团队共享Claude账号的同时也能做到各用各的、不抢道,清晰掌握每个人的使用情况。

  • OAuth快捷添加账号:添加Claude账号进入账号池非常简单。Claude Relay Service 集成了Anthropic的OAuth授权流程:管理员在Web界面点击“添加账户”,生成授权链接,然后登录Claude账号授权即可将该账号接入服务。整个过程无需手动输入密码,安全又便捷。需要注意的是,如果服务器在国内,完成OAuth授权可能需要科学上网配合。有了OAuth集成功能,哪怕团队里不断有新人加入或更换Claude账号,管理员都能几分钟内完成配置,无缝衔接。

以上这些功能组合在一起,就打造出了一个安全高效、灵活可控的Claude共享平台。对于无法直接访问Claude官方服务、又希望和朋友拼车Claude订阅的小团队而言,这无疑是个福音!Claude Relay Service让你们远离第三方镜像的不稳定,自己掌控数据和成本。正如官方README所说:数据安全、性能可控、成本透明 – 自建服务的好处一目了然。

Claude Relay Service 提供了多种部署方式,其中Docker Compose 部署无疑是最简单高效的选择之一。下面我们以Docker Compose为例,从零开始搭建你的Claude中转服务。

1. 环境准备:确保服务器已安装好 Docker 和 docker-compose 工具。由于使用Docker容器,基本不挑操作系统,只要能跑Docker即可。官方推荐使用国外云服务器(美国节点)以直接访问Anthropic的Claude服务。部署前,你需要注册至少一个Claude账号并订阅相应套餐(团队共享通常选择Claude Pro或Max套餐,大家平摊费用)。此外,准备两个安全密钥:JWT_SECRETENCRYPTION_KEY,分别用于签发JWT和加密敏感数据,必须是随机字符串且加足长度(32字符以上)。

2. 获取项目镜像:项目提供了预构建的Docker镜像,直接拉取即可使用:

Terminal window
docker pull weishaw/claude-relay-service:latest

镜像支持 AMD64 和 ARM64 架构,拉取完成后,我们就可以通过Docker Compose来运行它。

3. 编写配置:在部署目录中新建一个 .env 文件,写入我们准备好的环境变量:

Terminal window
# .env 文件内容示例
JWT_SECRET=your-random-secret-key-at-least-32-chars
ENCRYPTION_KEY=your-32-character-encryption-key
# 可选:预设管理员账号(不设则随机生成)
ADMIN_USERNAME=cr_admin
ADMIN_PASSWORD=your-secure-password

以上,JWT_SECRETENCRYPTION_KEY是必填项,请务必替换为你自己的随机密钥。ADMIN_USERNAMEADMIN_PASSWORD可选填;若不设置,系统首次启动会自动生成默认的管理员账户和密码并存储在挂载的数据卷中供查阅。

接着,创建 docker-compose.yml 配置文件,内容如下:

version: '3.8'
services:
claude-relay:
image: weishaw/claude-relay-service:latest
container_name: claude-relay-service
restart: unless-stopped
ports:
- "3000:3000"
environment:
- JWT_SECRET=${JWT_SECRET}
- ENCRYPTION_KEY=${ENCRYPTION_KEY}
- REDIS_HOST=redis
- ADMIN_USERNAME=${ADMIN_USERNAME:-}
- ADMIN_PASSWORD=${ADMIN_PASSWORD:-}
volumes:
- ./logs:/app/logs
- ./data:/app/data
depends_on:
- redis
redis:
image: redis:7-alpine
container_name: claude-relay-redis
restart: unless-stopped
volumes:
- redis_data:/data
volumes:
redis_data:

上面的Compose文件定义了两个服务:claude-relayredis。让我们逐项解释每个字段的含义:

  • 镜像与容器claude-relay服务使用了我们拉取的官方镜像 weishaw/claude-relay-service:latest,并命名容器为claude-relay-service,方便识别。redis服务使用官方的 redis:7-alpine 轻量镜像作为后端数据库。两个服务均设置了restart: unless-stopped,确保容器异常退出时能自动重启,保证高可用。

  • 网络端口ports 将容器内部的3000端口映射到主机的3000端口,即服务启动后可通过 http://<服务器IP>:3000 访问Claude Relay Service的接口和Web管理界面。

  • 环境变量environment 列出了Claude Relay Service所需的环境变量。其中 ${JWT_SECRET}${ENCRYPTION_KEY} 会从我们刚才的 .env 文件中读取对应的值。REDIS_HOST=redis 指定服务应连接名为redis的容器作为数据库。ADMIN_USERNAMEADMIN_PASSWORD使用了${VAR:-}语法,表示如果.env中提供了这些变量就用提供的值,否则留空让系统自动创建管理员账号。通过环境变量集中配置,所有敏感信息不硬编码在镜像内,修改配置也非常方便。

  • 数据卷挂载:Claude Relay Service会将日志和数据分别写入容器内的/app/logs/app/data目录。我们通过volumes将宿主机的./logs./data目录挂载到容器对应路径,实现日志和数据持久化。这样即使容器重启或升级,之前的对话内容、账号配置等数据也不会丢失。

  • 服务依赖depends_on: - redis 表示Claude Relay服务在启动时需要等待Redis服务就绪。这确保了应用在启动时能成功连接到数据库。不用担心启动顺序的问题。

  • 命名卷:底部的volumes: redis_data:定义了一个持久化卷用于存储Redis的数据文件。Redis容器将其挂载到/data路径下。如此一来,Redis的数据也能在容器之间共享/持久。

配置文件准备就绪后,可以看到它已经涵盖了管理员账号初始化、数据持久化、内置Redis、健康重启等方方面面。Docker Compose 帮我们把这些部署杂事一网打尽,省心又省力。

4. 启动服务:在包含上述文件的目录下,执行:

Terminal window
docker-compose up -d

Docker会拉取Redis镜像并启动两个容器。第一次启动时,Claude Relay Service会自动初始化管理员账号和密码。如果之前我们没有在.env中预设管理员凭据,可以通过查看日志或文件获取默认账号:

Terminal window
docker logs claude-relay-service # 从容器日志中查找初始管理员账号
# 或查看挂载的数据文件
cat ./data/init.json

日志或文件中会显示管理员用户名(一般默认为cr_admin)和随机生成的密码。拿到管理员账号后,我们在浏览器访问 http://<服务器IP>:3000/web 打开Web管理界面。输入管理员账户登录,即可开始配置我们的Claude Relay Service啦!

5. 添加Claude账号:登陆管理后台后,首先要将Claude官方账号接入系统。在“Claude账户”标签页点击“添加账户”,然后点击“生成授权链接”。系统会跳转到Anthropic的官网OAuth页面,提示你登录并授权。使用需要共享的Claude账号完成授权后,会返回一个授权码,将其粘贴回Claude Relay Service的添加账户页面,即可成功绑定账号。整个过程类似于用第三方应用登录Google,安全方便。小提示:如果服务器在国内,执行这步可能需要VPN配合,否则无法打开Anthropic授权页面。

6. 分发API Key:账号池准备就绪后,就可以为团队成员创建各自的API Key了。在管理后台进入“API Keys”页签,点击“创建新Key”,为其命名(例如“张三的Key”),然后生成。你也可以在创建时设置该Key的权限和配额,如每分钟最大请求数、并发数、可用模型、绑定客户端等。保存后系统会生成一串随机API密钥。今后团队成员只需使用这个密钥调用Claude Relay Service提供的API接口,就会由中转服务代他们向Claude提问了。

完成以上步骤后,一个功能完备的Claude团队共享中转服务就部署成功!整个流程下来是不是相当简洁?借助Docker Compose,我们几乎不用手动配置复杂环境,一条命令拉起所有服务。官方也贴心地在Compose模板中考虑到了自动初始化和数据持久化,开箱即用。

要让Claude Relay Service在团队协作中发挥最大效用,这里有一些经验之谈与大家分享:

  • 合理规划账号池:尽量使用多几个Claude账号来构建账号池,并确保它们套餐相同(例如都订阅Claude Pro/Max),这样轮询时不会因为单个账号性能不足而拖后腿。账号数量可以根据团队规模和请求频率调整,人越多账号越多更稳定。不用担心账号闲置,正所谓“多个Claude账号走镖,不怕封号扰”——哪怕个别账号被风控暂停,后备账号也能顶上,服务不中断。

  • 充分利用使用统计:管理员应定期查看Claude Relay后台的使用统计功能,了解每个API Key的请求量和Token消耗。这有助于团队内部透明化账目:大家平摊Claude订阅费时,心里都有本“明白账”。如果发现某段时间请求量异常增高,可以及时沟通或调整速率限制,避免某个人“独占”资源影响他人。

  • 设置访问控制:Claude Relay Service支持为每个API Key设置丰富的使用限制。善用这些功能,例如限制单用户每分钟请求不超过N次,或者仅允许特定客户端/应用使用,能够防止误用滥用。特别是在开放给更多人使用或集成到第三方应用时,务必配置好速率限制和并发控制,既保护后端Claude账号不被过载,也防止团队内部因资源抢占产生矛盾。

  • 关注网络和延迟:建议将服务部署在能快速访问Claude服务器的地区(如北美地区)。如果你的团队主要在国内使用,可以考虑选择对国内用户友好的中转线路。例如部署在美国但走优化过的回国网络,减少API调用过程中的延迟。根据实践,部分国内云厂商的海外机器可能会被Claude的Cloudflare防火墙拦截,要多加留意官方频道公告或社区反馈。

  • 保持更新:该项目十分活跃,功能在不断改进(例如近期新增了Claude-1.2模型支持等等)。建议定期关注项目的GitHub主页或Telegram公告频道。Docker用户可以通过定期docker pull获取最新镜像,然后重启服务升级。保持版本最新,可以享受更稳定的性能和最新的功能特性。

最后提醒一句:使用Claude Relay Service相当于非官方方式调用Claude,请务必遵守Anthropic的服务条款,避免滥用造成账号风险。自建服务给了我们更大自由,也意味着需要自行对安全合规负责。在团队内部制定好使用规范,才能长长久久地“开开心心用Claude”~

通过 Claude Relay Service,我们再也不用为团队共享Claude账号而绞尽脑汁了。无论你是因为地区限制无法直连Claude,还是想和小伙伴拼车昂贵的Claude Max套餐,这个开源项目都提供了一个灵活可靠、安全私有的解决方案。我们详细讲解了它的核心功能:多账户池、OpenAI接口兼容、自定义API密钥、OAuth添加账户等,让你清楚它如何满足团队协作需求。同时,我们一步步演示了Docker Compose部署,从配置环境变量到启动服务,相信即使不是DevOps高手的读者也能跟随操作,快速搭建起自己的Claude中转站。

可以想见,有了Claude Relay Service,加班写代码时再也不怕Claude账号额度见底,同事们也不必各自开账户重复花钱。大家共享一个“Claude大水池”,各取所需又明明白白,真正做到省钱又省心!🤝

我的代码会不会被 Trae、Cursor、Copilot 拿来训练模型


昨天 V2EX 上一条帖子火了:作者发现 Trae IDE 会持续上传代码数据,连在 Discord 的吐槽都被「禁言」。一石激起千层浪——开发者最关心的问题只有一个: 我的代码到底安不安全?


工具上传到云端是否长期存储是否拿去训练模型能否一键关闭
Trae (国内 / 海外)会,构建索引或聊天时临时上传明文代码处理后即删,仅留嵌入,官方声明“除计算嵌入外不会训练模型”暂无隐私开关
Cursor会,补全与索引都会上传默认可能留存;开 Privacy Mode 后零留存默认可用于改进模型;隐私模式下 不训练有隐私模式
GitHub Copilot会,经 Azure 处理不保存明文,仅做即时推理默认 不训练;个人版可自愿 opt-in训练开关可手动控制

一句话结论: 三家都要“上传”,Copilot 与 Trae官方都声称训练代码;Cursor 要手动开隐私模式才等同“0 训练”。


🟢 Trae:官方承诺「只算嵌入」

Section titled “🟢 Trae:官方承诺「只算嵌入」”
  • 隐私条款明确:“We do not use Your Content as training data for model training.”
  • 仍会把代码片段送上云端做向量索引,明文删除,仅保留嵌入。
  • 痛点没有像 Cursor 那样的「隐私模式」,用户无法关掉上传。

🔵 Cursor:有“隐私模式”才真私密

Section titled “🔵 Cursor:有“隐私模式”才真私密”
  • 默认会收集 Telemetry,用于改进模型。
  • 开启 Privacy Mode → 不存储、不训练,但请求仍经第三方 LLM(OpenAI / Anthropic)处理。
  • 隐私模式需要手动打开,新用户别忘了。

🟣 GitHub Copilot:企业友好,个人可选

Section titled “🟣 GitHub Copilot:企业友好,个人可选”
  • Copilot Business / Enterprise:代码绝不用于模型训练。
  • 个人订阅:默认也不训练,界面里可自愿开启「改进 Copilot」开关。
  • 仍要上传到 Azure,完全离线方案暂无。

场景建议
高度机密(金融、核心算法)别联网。使用本地 LLM 或走私有云;关闭任何自动补全。
纯开源 / 公开项目选 Copilot、Cursor,影响最小。Trae 也可,但需接受上传。
中间地带(部分闭源 + 需效率)开 Cursor 隐私模式或 Copilot;Trae 目前无关闭开关,谨慎评估。

  • 把隐私模式做成默认开启,而不是让用户去翻设置。
  • 出透明度报告:上传了什么?保存多久?是否真删?
  • 细粒度开关:索引 OK、训练 NO——让用户自己选。

AI 写码再香,也别忘了:

代码是生产力,也是风险点。

每隔一段时间,回顾一次工具的隐私政策,别让更新条款悄悄改变你的安全边界。


💬 你所在团队现在用哪款 AI IDE?隐私顾虑解决了吗?评论区聊聊!

每月 200 美金顶级 AI 会员到底值不值?:ChatGPT Pro、Gemini Ultra、Claude Max、SuperGrok Heavy

过去 12 个月,四大头部模型相继推出 $200 ~ $300 美金/ 月 级别的“钛金会员”。有人惊呼“AI 贵得离谱”,也有人把它们当成生产力神器。今天,我们从 价格、独占模型、深度研究、媒体生成、编程体验、附加福利 六个维度,帮你拆透这场高价较量。


套餐上市时间月费年付试用/学生优惠
ChatGPT Pro2024-12-05$200××
Gemini Ultra2025-05-20$250,首三月 $125××
Claude Max2025-04-10$200(20×) / $100(5×)××
SuperGrok Heavy2025-07-10$300$3 000×

结论: 价格全部站上 200 美元,Grok 更是冲到 300 美元;联名“没优惠”俱乐部,一点也不接地气。


  • ChatGPT Pro

    • 独占 o3-pro 模型,不限量调用(API $80/MT)
    • 每月 125 次 Deep Research + 125 次轻量版,是 Plus 的 10 倍
  • Gemini Ultra

    • 独享 2.5-pro-Deep Think(即将上线)
    • Deep Research 基于 2.5 Pro,每月积分换算约 125 次
  • Claude Max

    • 无独占模型,但可 20× 配额使用 Claude Opus 4 / Sonnet 4
    • Advanced Research 调用 Claude 4,次数未公开
  • SuperGrok Heavy

    • 独占 Grok-4-Heavy,每小时 20 次,112k 上下文,推理数学突出
    • 暂无 Deep Research,但大窗口让它天然适合 Agent 场景

  • ChatGPT Pro:o3 、o4-mini-high、GPT-4.5 全量开放,上下文 128k(API 200k)
  • Gemini Ultra:2.5 Pro 无限;输出 token 官方未披露,但 Flow / Whisk 可用
  • Claude Max:Pro 限量的 5~20 倍,但并非真正无限;大任务更安心
  • SuperGrok Heavy:Grok-4 每 2 小时 40 次,窗口 130k token

功能ChatGPT ProGemini UltraClaude MaxSuperGrok Heavy
语音高级语音不限量与 $20 会员相同,无明显升级
画图无水印、4 张队列
视频Sora 1080p 10 s 无限

  • Codex CLI:Pro 送 $50 API 额度;Plus 仅 $5
  • Operator 远程 VM Agent:目前仅向 Pro 用户开放,可自动浏览器执行任务
  • Gemini Ultra:打包 YouTube Premium($14)+ NotebookLM + 30 TB Drive
  • Claude 与 Grok 暂无额外礼包。

  1. 成本真高:模型越大,推理成本指数级上升;单用户 24 小时也烧不了 10 倍 GPU,却一定要预留峰值带宽。
  2. 品牌光环:高价=高端标签,给专业用户和投资人信心。
  3. 防止竞争:顶级模型 API 挂天价,逼你买包月,避免“别人拿我 API 来跟我打价格战”。

  • 只写代码?Claude MaxChatGPT Pro,一个上下文长、一个独占 o3。
  • 重 AI 视频:Gemini Ultra ⟹ Veo 3,目前行业天花板。
  • 需要最长推理链:Grok Heavy 112k token 很香,但生态还在补课。
  • 预算有限:普通 $20 层已能覆盖 80% 场景,盲冲高端前,先问自己 ROI 能不能挣回会员费用。

顶级会员不是面向大众,而是服务“时间比钱更贵”的重度用户。 你会为哪家买单?留言聊聊你的选择吧!

与其担心工资缩水和失业裁员:互联网打工人不如持有英伟达对冲 AI 时代的风险

互联网时代“信息流动”的边际成本≈0;AI 时代“信息生成”的边际成本居高不下并且随用量线性增长。资源从「人」转向「算力+电力」,企业从轻资产的第三产业加速“第二产业化”。作为互联网打工人,一手升级认知与技能,一手用资产配置(如英伟达)对冲自身在价值链里的稀释风险。


  1. 本质变化:PC/移动互联网 = 低边际成本的“信息分发”;AI = 高边际成本的“信息生成”。
  2. 公司画像:OPEX→CAPEX、人才→GPU、电力、数据中心,互联网公司“工业化”。
  3. 个人策略职业从“写功能”转向“管工程与算力经济学”;资产用“AI上游龙头+分散ETF”对冲自身现金流风险(非投资建议)。

2025年7月2日据《连线》(WIRED)杂志最新获悉,马克·扎克伯格在为其新成立的Meta超级智能实验室招兵买马之际,向顶尖研究人才开出了高达3亿美元(约合人民币21.8亿元)的四年期薪酬方案,其中首年总薪酬超过1亿美元(约合人民币7.27亿元)。

2025年7月11日英伟达成为全球首家市值突破4万亿美元的上市公司。英伟达花了30年时间建立了一个价值1万亿美元的公司,又用了两年时间将自己变成一个价值4万亿美元的公司。

2025年07月24日 Google 母公司 Alphabet 周三表示,它将在 2025 年花费 850 亿美元的资本支出,高于年初表示的 750 亿美元。

1. PC/移动互联网 vs. AI 时代的三处本质不同

Section titled “1. PC/移动互联网 vs. AI 时代的三处本质不同”

① 信息方式:从“信息流动”到“信息生成”

Section titled “① 信息方式:从“信息流动”到“信息生成””
  • 过去:互联网把既有内容更快、更广、更便宜地送达用户(搜索、社交、视频)。
  • 现在:AI 在用户每次请求时重新生成文本、图像、代码、语音等结果,每次生成都要消耗算力与电力

② 边际成本:从接近 0 到持续偏高

Section titled “② 边际成本:从接近 0 到持续偏高”
  • 互联网:一旦网络与 CDN 等基础设施建好,分发的边际成本接近 0
  • AI:训练不是“一次性”,要年度迭代+持续增大投入;而推理更是按调用付费用量越大成本越高。即使硬件迭代带来“同价更强”,更强模型也会把省下来的成本吃回去(体验换成本)。

③ 使用规模:从“人口/设备上限”到“无上限的自动化”

Section titled “③ 使用规模:从“人口/设备上限”到“无上限的自动化””
  • 互联网:活跃用户数受设备与人口天花板约束。
  • AI代理/自动化/自主化把“人次”上限拆掉——机器对机器的调用可以 7×24×N 倍放大,需求侧具备指数级增长的可能。

① 资本开支(CAPEX)抬升、且“年年续费”

Section titled “① 资本开支(CAPEX)抬升、且“年年续费””
  • 训练:大模型基建不是一次性,硬件折旧周期短,2~3 年即换代
  • 推理:单位调用就产生成本,营收随用量涨,算力账单也同步涨
  • 财务侧:从强调 OPEX(研发工资)转向强调 CAPEX(GPU、数据中心、电力)

② 稀缺资源逆转:从“工程师时间”到“GPU + 电力 + 机房”

Section titled “② 稀缺资源逆转:从“工程师时间”到“GPU + 电力 + 机房””
  • 互联网时代护城河是网络效应近零分发成本
  • 现在的护城河更多来自算力规模、供电容量、选址与冷却、集群调度与运营经验

③ 产业属性切换:第三产业 → 第二产业化

Section titled “③ 产业属性切换:第三产业 → 第二产业化”
  • 互联网公司越来越像传统工业企业:重资产、长周期、强运维、工程化
  • 人才结构演进:从大规模 SDE 软件开发工程师 → Pre-training / Foundation Model 等“算力管理人”岗位。

  • 供电容量电网接入是硬约束,数据中心在站址、电价、冷却上的差异决定单位算力成本。
  • 结果:算力扩张不是纯粹“砸钱就行”,而是“工程+供应链+电力”的系统性能力竞赛。

② 生成过剩:供给侧极强,需求侧相对滞后

Section titled “② 生成过剩:供给侧极强,需求侧相对滞后”
  • AI 产能指数级提升,人类注意力与购买力不匹配,容易出现阶段性“泡沫”。
  • 出路:让 AI 自己成为“消费者”——自动化代理完成检索、下单、联动流程,把供给接到真实业务闭环上。

③ 打工人现实:高福利时代收缩

Section titled “③ 打工人现实:高福利时代收缩”
  • 资源从“人”转向“算力”,SDE 的边际议价能力被稀释
  • 心法:与 AI 友好、礼貌、高效协作,升级为“工程的管理者”(管需求、管质量、管数据、管成本、管风险)。

AI 的浪潮不会因为我们的恐惧而停止。

与其担心薪资缩水,不如:

提升“调度 AI”而非“写业务代码” 的能力;

在资产配置里加入 NVDA 等 AI 科技龙头,用股票对冲职业风险;

写在最后:你会把多少工资换成英伟达?为什么? 留言区等你来聊。

Claude Code 的「思考档位」:think, think hard, think harder 和 ultrathink

think 用得好,是助你飞跃瓶颈的秘密武器;用得不好,Claude 就跟“没带脑子”一样干活。


你让 Claude 帮你分析个问题,结果它三句话就甩了个答案给你。

看起来“有模有样”,但一落地就出锅,漏洞百出。

很多人以为是 Claude 不行,其实真相是:你没有让它「好好思考」!


Claude 的隐藏技能:思考档位调节器

Section titled “Claude 的隐藏技能:思考档位调节器”

Claude Code 其实内置了一个「思考加速器」工具(叫 Think Tool),只不过你得自己触发。

档位关键词思考 Token 上限思考深度
NONE不加任何关键词0 Tokens快速执行,几乎不思考
BASICthink / 想4K Tokens初级思考,快速粗略规划
MIDDLEthink hard / 好好想10K Tokens中度思考,适合复杂任务
HIGHESTultrathink / 仔细思考32K Tokens最深层思考,适合攻坚战

这不是玄学,而是写在 Claude Code 工程代码里的真实设定

加了关键词,它就真会多想一会儿!


别担心 Claude 看不懂中文,它的触发逻辑也支持我们母语:

  • HIGHEST(32K):仔细思考、深思、多想一会
  • MIDDLE(10K):好好想、多想想
  • BASIC(4K):思考、想

比如你说「这个问题你仔细思考后再给我计划」——Claude 马上切换到最高档,分配最多思考时间!


当然可以,下面是每种思考档位的典型使用场景示例,简洁清晰,方便直接套用 👇


🧠 ultrathink 示例:拆分复杂产品功能

Section titled “🧠 ultrathink 示例:拆分复杂产品功能”

Prompt: 我想开发一个“智能日报助手”,可以自动从 Slack、Notion、GitHub 汇总今天的重点事件,帮我生成日报草稿。这个问题你先**仔细思考(ultrathink)**一下,输出一份模块划分、数据流和API接口设计。

📌 适用场景:多系统集成、需求模糊、需深度思考架构


🧠 think hard 示例:评估多个技术方案

Section titled “🧠 think hard 示例:评估多个技术方案”

Prompt: 我想为一个多人协作文档应用选择数据库方案,你**好好想(think hard)**一下,是选 PostgreSQL + Redis,还是 MongoDB + Kafka,输出比较分析并给出推荐理由。

📌 适用场景:多个路线可选、需要对比分析


🧠 think 示例:小任务做一下逻辑规划

Section titled “🧠 think 示例:小任务做一下逻辑规划”

Prompt: 我准备写一个脚本,把一个 Markdown 文件里的图片链接全部下载下来并重命名。你先**想一想(think)**该怎么做,用 Python 哪些库比较合适,再给我写代码。

📌 适用场景:任务不复杂,先简单过一遍思路


Prompt: 我已经写好了这个 AI 摘要工具的使用说明,请你把下面这段文字格式优化为 README.md 文件,直接输出结果,不需要多想。

📌 适用场景:需求清晰,只需要执行,无需思考计划


🚀建议用法套路:「Explore, Plan, Code, Commit」

Section titled “🚀建议用法套路:「Explore, Plan, Code, Commit」”

Claude Code 官方推荐了一个 4 步法工作流:

  1. Explore:先让 Claude 读文件,但不写代码
  2. Plan:用 ultrathink 制定详细计划(核心)
  3. Code:基于计划写代码,并自检合理性
  4. Commit:生成 Pull Request 和 changelog

📌 重点来了#2 Plan 步骤一定要加关键词触发「思考档位」,否则很可能跳过深度思考直接开始干活!


🧠不是 Claude 不聪明,而是你没让它动脑

Section titled “🧠不是 Claude 不聪明,而是你没让它动脑”

Claude 的能力很强,但如果你不给它「思考空间」,它就只能草率应付。

用好 think、think hard、think harder、ultrathink,不但能提升输出质量,还能让复杂问题一步到位解决。

你觉得这个设计聪明吗? 你有没有踩过“Claude没想清楚就开干”的坑? 欢迎在评论区分享你的经验👇

Trae 集成 OpenAI o3 模型:思考慢一点,但更设计聪明

**一句话总结:** Trae Agent 把 OpenAI 最新的 o3 Beta 模型塞进了下拉菜单,给了我们更强的跨模态推理—but 思考时间更长、排队更频繁;想用它写代码、读图要多一点耐心,也要学会场景取舍。


  • 视觉链式思考:o3 能在内部“看图想事”,一步步裁剪、放大图片来推理,和纯文本 LLM 拉开代差。
  • 顶级推理:在 Codeforces、SWE-bench 等榜单上刷新纪录,特别适合多文件代码改造、数学证明。
  • 代价与代价:更强 ≈ 更慢——o3 设计成“先长思考后作答”,响应比 Claude Sonnet 4 慢几倍。

Trae 国际版更新后,模型列表多了 “o3 Beta”,点选即用,无需额外 API Key。

复制粘贴 UI 草图或架构图就能让 o3 输出组件代码或流程解释。

  • :o3 的长链式思考让响应延迟拉长;短 prompt 建议仍用 Claude Sonnet 4。

  • :复杂依赖梳理一步到位,后期返工少。
  • 省心:图片->代码、PDF->注释一步完成,省去上下文兜底。

Trae + o3 Beta 就像多了一位深度思考型拍档:慢热,但一旦开动,设计方案更周全。 你会在哪些场景切到 o3? 欢迎评论区聊聊!

Vibe Coding 提速还是拖累?19% 的“慢下来”启示

今年AI Vibe Coding 编程工具在开发圈掀起了一阵热潮。很多开发者(包括我自己)都以为有了 AI 智能助手加持,写代码的效率会大幅提升。然而最新研究却给我们泼了一盆冷水:使用 AI 工具反而让开发变慢了近 19%!这项由 METR 发布的研究针对经验丰富的开源开发者进行对照实验,结果令人出乎意料。参与者原以为 AI 能让完成任务的时间缩短 24%,可实际却慢了将近五分之一。更有意思的是,即使亲身经历了变慢,不少程序员仍坚信 AI “让我更快”——一种“心理加速”错觉。

作为一名互联网电商后台开发,我对这个结果其实有些共鸣。回想自己引入 AI 助手写代码的经历,确实有不少坑:有时等 AI 输出代码把我急得挠头,有时为了配合 AI 不得不中断自己的思路。下面我结合实际开发中的案例,聊聊为什么 AI 编程可能拖慢节奏。希望这些经历能给同道中人提个醒。

曾几何时,我们写代码都是脑到手到,思路一来噼里啪啦就敲了出来。但引入 AI 助手后,等待它“思考”和输出的过程却变成了新的时间黑洞。我在项目中实现异步消息处理时,就想着让 AI 帮忙生成消费逻辑。结果问了一句话后,屏幕上那个“小圈圈”转啊转,AI 在云端“冥思”,我只能干瞪眼等着。短短几十秒虽不起眼,但累积起来也是不小的开销。更麻烦的是,AI 有时一股脑输出一大段代码,我不得不停下来等它滚动完毕,整个人节奏被打断

在这些等待的空档,我常不自觉刷会儿邮件或干点别的,但心里还惦记着 AI 的答复。这种状态下很难静下心处理其他任务,相当于人在“挂起”。如果没有 AI,我也许已经自己撸出一版初稿了。现在却因为等机器“想完”,宝贵的开发时间悄悄溜走。可见,AI 虽然能自动产出代码,但速度未必比得上人脑的直觉反应。等待 AI 的过程,就像在迭代里引入了额外的延迟,严重时让原本流畅的开发节奏变得支离破碎。

有了 AI 助手后,我一度尝试“并行开发”:一边让 AI 写某个模块,一边自己干别的活儿。但现实证明,来回上下文切换的代价远比想象中大。举个例子:在开发一个支付回调接口的幂等性处理时,我让 AI 去生成校验重复请求的代码,期间我则转去调试另一处业务逻辑。几分钟后 AI 代码出了结果,我切回来阅读和集成。可是刚刚脑子里的另一件事还没放下,又得把思路切换到 AI 给的代码上。结果来来回回折腾,两头进度都变慢

人并非真正擅长多任务处理。在写代码这种需要全神贯注的工作中,频繁切换上下文会造成严重的认知开销。每次从自己的思路跳到 AI 的思路,都需要时间理清 AI 产出的代码意图、回想之前的问题背景。这就好比一边听两个人讲话,你需要不断在他们之间“脑补”上下文,效率可想而知。尤其当AI生成的内容跟我原本的代码风格或思路不同,我更要花额外精力适应。试想在高峰期开发一个复杂的电商后端功能,还要像客服一样随时处理 AI 的“插话”,这种并行不但没有节省时间,反而拖慢了整趟进度

AI 输出的代码并非拿来即用,仔细审查和调试往往不可避免。在实际项目中,我多次遇到 AI 的“幻觉”——编造不存在的函数或误用接口。例如,上次让我哭笑不得的是,我请 AI 帮忙实现订单支付回调的幂等处理,它倒是很热情地写了一大堆代码,但细看发现里面调用了我们系统里根本不存在的模块函数!AI 过分自信地胡乱猜测,让我不得不重新检视每一行代码。研究也发现了类似现象:开发者接受的 AI 建议还不到 44%,大部分代码需要修改或重写,75% 的情况下程序员还得把 AI 输出每一行过目。这审查修改的过程,其实把省下的时间又花了回去。

即使AI代码能跑,大概率也不符合我们的业务预期。我曾让 AI 优化 Kafka 消息处理的逻辑,它给出的方案看起来头头是道,但跑起来才发现对乱序、重复消息这种边界情况处理不当,差点引入新bug。最后还是花时间把它“自作聪明”添的花里胡哨的部分精简掉。还有一次,AI 为了解决问题,提供了一个复杂的多线程方案,大材小用不说,还引入了线程安全隐患。AI 的过度热情有时适得其反,让我花更多时间返工。说到底,目前的 AI 代码可靠性不高,我不得不保持警惕,用挑错的眼光反复审视,就像代码审核一样一行行过,生怕它埋下什么坑。

很多人以为问AI问题不费吹灰之力,实际上想让AI听懂你、给出有用回答,需要反复斟酌提示词。在我的实际体验中,这几乎成了一门“对 AI 说人话”的艺术。我在项目里让 AI 帮忙生成商品库存同步的逻辑,第一次描述问题时它答非所问;我不得不换种表述,再补充业务背景,结果第二次仍不理想。就这样来来回回和 AI 深度对话了好几轮,感觉像在培训一个新人:得一点点纠正它的误解,不断细化要求。花在构思和优化提示词上的时间,看不见却实实在在。

有时为了让 AI 明白复杂场景,我甚至把相关代码片段、报错信息都贴给它,这过程本身就很耗时。比如实现订单流程里的异步退款,我需要它关注幂等性和事务性,光解释这业务背景就发了一长串提示。等AI逐渐“领会”我的意图,已经过去了不少时间。而这些来回沟通,本质上并没有产出新的业务价值,只是帮助 AI 搞清楚状况。可以说,提示词的内耗在一定程度上抵消了 AI 编码的加速优势。我们以为和 AI “对话”几句很快,实际却可能陷入旷日持久的调试对话,把节奏拖得更慢。

AI 编程助手的出现,无疑为开发者提供了全新的生产力工具。但正如上面的亲身经历和研究结果所揭示的那样,目前阶段的 AI 并非灵丹妙药。它在简单场景下也许能提高效率、减轻些体力活,但在复杂业务逻辑、大型代码库面前,AI 往往心有余而力不足。开发者不仅要花时间等待、来回切换精力,还要为 AI 的失误兜底、费心调教,这些隐性成本累积起来,就出现了生产力倒退的现象。当然,我们并不是在否定 AI 工具的价值,而是提醒大家理性看待它的适用性:当熟练度不够或应用场景不匹配时,AI 可能反而拖慢你。

站在一线开发者的视角,我感受到的是一种“又爱又恨”。AI 提供的新思路、新范式让我受益良多,但每当它帮倒忙时也确实让人头大。或许随着模型的进化和我们使用技巧的提高,这19%的劣势会转变为真正的提速优势。但在那之前,我们需要多一分清醒:别让对 AI 的乐观预期蒙蔽了双眼,要不断反思它在实际工作中的性价比。正如Greyhound Research的分析师所说,不要把开发者的爽感误当成了生产力

你怎么看?你在使用 AI 编程时遇到过哪些坑?

给 Claude Code 换 OpenAI 协议兼容模型:claude-code-proxy 上手指南

claude-code-proxy 把 Claude Code 的「Anthropic 协议」一键翻译成 OpenAI 兼容的接口,让你在本地或云端自由切换 GPT-4o、Gemini 甚至 Ollama 等模型,无需改任何代码,成本立省,还能享受流畅的函数调用与流式输出。


  • Claude Code CLI 默认只认 Anthropic 官方服务器,贵,还经常限流;自建代理可绕过这一限制。
  • 市面已有各种「转译」脚本,但大都不支持函数调用模型智能映射,上手门槛高。

完整支持 /v1/messages,连图片 Base64 输入都能转译。

内置 OpenAI、Azure OpenAI、Ollama 等适配器,也能接任何 OpenAI-compatible 服务。

  • haiku → SMALL_MODEL
  • sonnet → MIDDLE_MODEL
  • opus → BIG_MODEL 一行环境变量就能换模型,无需手改代码。

让 Claude Code 在新模型上依旧能「写代码、调 API、边打一边看」。

超时、令牌溢出都会被优雅捕获并返回人类可读信息。


下文所有命令均在 macOS/Linux 终端执行

Terminal window
# 推荐超快的 uv
uv sync
# 或者老派 pip
pip install -r requirements.txt
Terminal window
cp .env.example .env
# 编辑 .env,填入 OPENAI_API_KEY 等

必填:OPENAI_API_KEY 可选安全项:ANTHROPIC_API_KEY(开启后需匹配才可访问)。

Terminal window
python start_proxy.py
# 或 uv run claude-code-proxy

默认监听 0.0.0.0:8082,日志级别 WARNING

Terminal window
export ANTHROPIC_BASE_URL=http://localhost:8082
export ANTHROPIC_API_KEY=any-value # 若代理端未设限,可随意写
claude # 开始愉快 Vibe Coding

只要改 .env

Terminal window
# 用 Azure
OPENAI_BASE_URL="https://your-azure-endpoint"
BIG_MODEL="gpt-4"
# 用本地 Llama3
OPENAI_BASE_URL="http://localhost:11434/v1"
BIG_MODEL="llama3.1:70b"

无需重启 Claude Code。

Claude 官方文档同样支持标准 HTTP(S)_PROXY 环境变量,可与 claude-code-proxy 叠加使用。

.envdocker-compose.yml 推到私有仓库即可在 CI 环境批量部署。


  1. 401 错误:确认前后端 ANTHROPIC_API_KEY 一致,或干脆删掉让代理「无门槛」。
  2. 模型名不识别:检查是否包含 haiku/sonnet/opus 关键词;否则手动设置 BIG_MODEL 等映射。
  3. 延迟高:本地 Ollama 建议开启 GPU 加速;云端可用 uvicorn --workers 4 提升并发。

有了 claude-code-proxy,你可以把 Claude Code 变成一把「万金油」—— 前端写 Vue,后端跑 Gemini,文档用 GPT-4o,全部一个 CLI 端口搞定。赶紧试试,把服务器跑起来,再留言告诉我你的体验!你觉得哪种模型映射组合最好用?


特斯拉(NASDAQ: TSLA)2025年下半年股票走势分析与预测

  • 2025年第二季度财报显示:特斯拉营收同比下降12%至225亿美元,净利润同比大幅下滑,创下至少十年来最大降幅。汽车营收连续第二季度下滑,但毛利率回升至17%优于市场预期,反映成本控制有所改善。
  • 交付数据:二季度交付38.4万辆,同比下降13%;今年上半年累计下滑21.3%。全年如要达成市场预期,必须下半年交付92万辆以上,挑战极大。
  • 公司现金流和财务状况稳健:截至2025年6月底,持有现金及等价物367.8亿美元,半年经营现金流47亿美元,同比增长,资本开支缩减。
  • 当前价格与技术格局(2025年7月下旬)
    • 股价近日反弹至316-320美元区间,短线走出“盘整-震荡”格局,日K处于布林带中轨附近,RSI位于50上,显著方向暂未确立。
    • 关键支撑位:326-331,321-324,316,312,300美元;
    • 重要阻力位:336-338,343,350,358,368美元。
    • 若有效突破320-335美元区间,或有望走出一波上行行情,反之若跌破315-316美元则需警惕进一步回调至300美元附近。
  • K线形态
    • 短线“三角形整理”,属于突破前的蓄势阶段。
    • 近期多次在335美元附近受阻,显示上方压力显著。
  • 汽车主业承压:传统Model 3/Y等主力车型面临生命周期末端压力,创新车型量产及低价新车型进度成为市场关注焦点。
  • Robotaxi和FSD(全自动驾驶):6月底奥斯汀Robotaxi服务初步投放,年底前计划扩展至全美多个城市,若业务落地顺利,有望打开新盈利空间。马斯克公开表示,年底美国半数人口可用Robotaxi,但监管落地进展需持续验证。
  • AI与机器人业务:特斯拉积极布局人形机器人Optimus,2026年目标大规模量产,远期市场看重其“AI+机器人+能源”科技生态。
  • 宏观因素:电动车市场竞争激烈(来自比亚迪、大众等),关税加剧成本压力,中美欧政策走向、利率变动也构成不确定性。
  • 市场整体评级大体中性偏谨慎
    • 汇丰:“减持”,目标价120美元,看空主因在于汽车业务增长瓶颈、盈利能力弱化。
    • 基准公司、Stifel:“买入/持有”,目标价分别为475美元(乐观,看重自动驾驶与新车型驱动)和440美元。
    • 多数分析师一致目标价在297-320美元附近,接近当前股价水平。
  • 短期展望:受业绩下滑、交付压力、市场环境恶化等因素影响,特斯拉未来1-2个季度可能维持高波动、震荡盘整格局。若Robotaxi及低成本车型进展顺利,市场情绪有望好转。
  • 重要技术策略
    • 多头关注突破335-343美元压力带,若量能配合,上行空间或至350/368美元区间。
    • 空头则需警惕跌破316及300美元关键支撑,若失守或有加速下行风险。
  • 风险提示:公司业务正面临结构性转型的生死关头,短期财报和交付低于预期有下探压力,而AI/Robotaxi等新业务能否如期放量决定中长期估值高度,投资者宜密切跟踪进展与市场情绪变化。

结论:当前特斯拉处于“业绩承压、转型博弈”关键阶段,短期观望氛围较浓,强力支撑与阻力价位参考可辅助高抛低吸操作。中长期能否重启大牛行情,需看自动驾驶、经济车型量产及AI等创新业务能否兑现高增长预期。投资者建议逢高减仓、逢低分批介入,并密切关注公司战略落地与外部环境变化。

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

美元指数走势分析(2025年7月27日):降息与关税谈判双重变量下的风险与机会

  • 美元指数(DXY)近期维持震荡格局,区间大致在97-98附近。7月25日收于97.642,过去几交易日因避险情绪和美联储政策预期波动上扬,但整体反弹动能偏弱[1][2]。
  • 美国经济数据尚能为美元提供一定支撑,但市场预期美联储9月后降息,令美元吸引力承压。美国贸易、财政政策、全球地缘风险等均是短期影响主因[3][1][4]。
  • 盘面显示各主要货币对美元波动较大,反映多空博弈激烈,如欧元和英镑兑美元阶段性表现较强,美日、美加等则见美元短暂走强[1][5][2]。

二、中期走势(未来半年至一年)

Section titled “二、中期走势(未来半年至一年)”
  • 美元2025年上半年累计下跌超10.7%,创1973年以来最差同期表现,主因包括美国财政信用问题、关税政策、全球经济分化及降息预期加剧[4][6][7]。
  • 市场普遍看空中期美元,多家机构预计跌幅仍有空间,特别是如美联储确定降息周期,美元收益率优势进一步收窄,资金流有望转向非美资产和部分新兴经济体货币[8][9][7]。
  • 但也有观点认为,“强美元”格局未必立即逆转,劣势主要在于资金流动和贸易摩擦升级,需关注特朗普政府关税等政策带来的逆周期冲击[10][11][6]。
  • 美元全球储备货币地位虽难撼动,但长期看,全球去美元化、美国财政赤字与信用风险上升、贸易保护及多极货币体系等趋势,均削弱美元作为唯一避险资产的角色[7][9][8][12]。
  • 多数机构认为,美元有望进入更持久的弱势周期,大致跌幅区间被预估在4-10%甚至更大,预计波动会更频繁且方向受宏观和地缘事件影响较大[7][4][9]。
  • 若美国经济出现滞胀、政策收紧滞后、全球资本流动分化,则美元资产或继续承压[13][14]。

如果未来关税谈判顺利结束,美联储启动降息,美元指数将受到以下方面影响:

  • 通胀压力缓解:如果美国与主要贸易伙伴(如欧盟、加拿大、墨西哥等)顺利达成关税协议,避免新增或大规模关税生效,将直接减少进口商品的成本压力,有助于美国国内通胀回落或稳定[1][2][3]。
  • 市场不确定性下降,避险需求减弱:关税争端临近终结将减弱市场避险情绪,对美元的短期避险买盘也会减少,美元指数容易承压[4][5]。
  • 利于出口和全球风险偏好修复:贸易壁垒下降会支持美国出口并改善全球经济信心,带动非美货币(如欧元、日元等)反弹。
  • 美元吸引力下降:美联储降息意味着美元计价资产收益率下降,削弱美元的国际资金吸引力,外资流向新兴市场和高收益货币的意愿上升,美元指数易回落[6][7][8][9]。
  • 降息幅度和节奏决定下行空间:若美联储开启较为激进的降息周期(例如一年2次甚至更多),美元贬值空间将增大,回调目标或低于102.00区间甚至更低[7][10]。
  • 政策协同带来趋势性拐点:关税谈判成功降低通胀,反而给美联储更充足的降息理由,两大外部因素共同作用将推动美元中长期进入更明显的弱势周期。

风险:

  • 美联储货币政策转向(降息周期),美元吸引力下降。
  • 美国高企的债务、财政赤字与贸易逆差,长期削弱信用。
  • 全球去美元化和本币结算趋势加速,对美元长期结构性利空。
  • 地缘冲突缓解或非美经济复苏,资金周期性流出现象。
  • 政治风险和突发事件加大短线波动。

机会:

  • 美元短线反弹时,波段操作可捕捉区间收益,适合灵活型投资者。
  • 美元作为避险资产在全球危机或地缘冲突升级时仍具有短期配置价值。
  • 中长期逐步布局优质非美资产(如欧元区、日元、澳元、大宗商品相关资产)有望获取超额收益[8][15]。
  • 适合做套息交易、“高抛低吸”、跨币种资产分散风险。

根据汇总资料,2025年初美元指数高点在110附近,至7月末约97.6,年初至今跌幅约**-11.3%**,即投资美元指数同期ROI为-11.3%[4][6][1]。该跌幅创半世纪最差表现,已远超常规区间波动。

  • 政策不确定性反复:关税谈判节奏、协议细节及后续实施与否存在反复风险,若谈判破裂或美联储重回鹰派,美元调整节奏可能被打乱[1][11][4]。
  • 全球因素扰动:地缘局势突发、非美经济超预期走弱等可能导致资金回流美元,导致阶段性剧烈波动[12][4]。

以美元投资计,如目前美元指数处于97附近,若降息和贸易和解共同驱动,美元有望出现中长期持续贬值。参考近期美元季度最大跌幅达5%及年跌幅超11%的表现,若新政策实施,未来一年美元指数的投资回报(ROI)大概率仍为负值(-4%至-10%区间),非美货币与资产可能获得正向超额收益[7][8][2]。

关税谈判结束与美联储降息将形成“叠加利空”,美元短中期表现整体偏弱,投资策略宜抓住美元反弹时机转向分散非美资产配置,把控汇率风险,牢牢把握结构性机会。

  • 短线: 区间震荡、数据驱动,适合波段策略与谨慎高抛低吸。
  • 中期: 看空为主,关注美联储降息落地时点及全球资金流动向。
  • 长期: 重视多极货币框架下美元指数趋势性风险,逐步增加非美资产配置比例。
  • 需密切关注美联储、美国财政状况、贸易政策以及全球政治经济风险,严格风控与动态调整。

如以美元指数为主的投资,需警惕短期波动与长期趋势拐点,合理安排仓位和周期,不可忽略结构性下跌风险。

注:本报告基于公开信息分析,不构成投资建议,投资有风险,入市需谨慎。

全球 ChatGPT Plus 订阅价格揭秘:苹果 iOS 平台尼日利亚最划算?

想开通 ChatGPT Plus,却不知道各国价格差别有多大? 这一期,我们聚焦苹果 iOS 平台,从多个国家和地区收集了 2024–2025 年的订阅费用并折算成人民币。

让我们一起看看,哪几个地区订阅成本最低,哪些又让人“肉疼”?


ChatGPT Plus 在各国的订阅价格(按折算人民币从低到高排序)

注:价格为 2024‑2025 年在苹果 iPhone 应用内的月度订阅费用。

国家本币价格折算人民币价格 (CNY)
尼日利亚₦9,900.00 NGN46.51
巴基斯坦Rs 4,900.00 PKR123.87
巴西R$ 99.90128.69
加拿大CA$ 24.99130.78
哈萨克斯坦₸9,990.00131.67
卡塔尔69.99 QAR137.87
阿尔及利亚$19.99 USD143.29
阿根廷$19.99 USD143.29
阿塞拜疆$19.99 USD143.29
玻利维亚$19.99 USD143.29
哥斯达黎加$19.99 USD143.29
厄瓜多尔$19.99 USD143.29
伊拉克$19.99 USD143.29
牙买加$19.99 USD143.29
约旦$19.99 USD143.29
科威特$19.99 USD143.29
黎巴嫩$19.99 USD143.29
毛里塔尼亚$19.99 USD143.29
毛里求斯$19.99 USD143.29
摩洛哥$19.99 USD143.29
纳米比亚$19.99 USD143.29
瑙鲁$19.99 USD143.29
尼加拉瓜$19.99 USD143.29
阿曼$19.99 USD143.29
突尼斯$19.99 USD143.29
美国$19.99 USD143.29
日本¥3,000 JPY145.65
以色列₪69.90 ILS149.43
智利$19,990 CLP149.77
韩国₩29,000 KRW150.25
墨西哥$399.00 MXN154.29
阿联酋AED 79.99156.11
秘鲁S/ 79.90 PEN161.99
阿尔巴尼亚$22.99 USD164.80
加纳$22.99 USD164.80
印度₹1,999 INR165.66
新西兰$39.99 NZD172.54
英国£19.99 GBP192.49
克罗地亚€22.99 EUR192.93
爱沙尼亚€22.99 EUR192.93
法国€22.99 EUR192.93
德国€22.99 EUR192.93
爱尔兰€22.99 EUR192.93
立陶宛€22.99 EUR192.93
斯洛文尼亚€22.99 EUR192.93
波兰99.99 PLN198.15

最低价 如果你在 尼日利亚,月费约 46.51 元,全球最低,主要得益于当地货币兑换率较低。 巴基斯坦次之,每月约 123.87 元

价格差不多 多数国家的订阅价格集中在 140 元左右。比如阿根廷、阿塞拜疆、哥斯达黎加等地的月费均为 19.99 美元,按照当前汇率约 143 元人民币

最高价 欧元区国家的收费明显更高。克罗地亚、法国、德国、爱尔兰等地每月 22.99 欧元,折合 192.93 元人民币。 英国也不便宜,19.99 英镑折合 192.49 元


可以看到,价格差异与汇率息息相关:

  • 美元定价国家:大多数非欧元国家直接按美元计价,19.99 美元的月费在约 143 元人民币 左右。
  • 本币定价国家:印度每月收费 ₹1,999,折算 165.66 元;巴西的 R$99.90 折合 128.69 元
  • 货币强势国家:欧元和英镑升值,拉高了当地订阅成本。

换句话说,一旦汇率变化,订阅成本也会跟着波动。 如果你经常出差或有多国 Apple ID,不妨对比一下各国价格再决定在哪里订阅。


简要分析几个常见区域:

  • 亚洲:尼日利亚和巴基斯坦价格相对低,东南亚和中东地区多采用美元定价,价格相对稳定。
  • 美洲:拉美很多国家也使用美元定价或本币锚定美元,费用基本一致。
  • 欧洲:欧元区和英国价格偏高,喜欢“薅羊毛”的朋友要三思。

如果你有能力注册多个地区的 Apple ID,可以考虑选择低价区订阅。但要注意,账号和支付方式的合法性问题不可忽视。


数据告诉我们,ChatGPT Plus 的订阅费用在全球范围内有明显差异。如果你关注成本,选择地区订阅会是一个不错的策略。

你所在的地区月费是多少? 还有哪些订阅小技巧值得分享?

Cursor 1.2 更新:Agent 终于能“思考 To-do 清单之后再动手”

开发复杂功能时,Cursor Agent 会“先列清单、再开干”


👀 你是不是也遇到这种 Cursor 使用体验?

Section titled “👀 你是不是也遇到这种 Cursor 使用体验?”

我们常用 Cursor 帮写代码,但一到多步骤、复杂任务,就容易“摸不着头脑”:

  • Cursor 在干嘛?为什么突然动数据库了?
  • 它下一步要干什么?是不是漏了测试?
  • 整体流程是怎样的?能不能让我先看计划?

尤其是涉及多个文件、数据库逻辑、前后端联动时,没有清晰规划,只靠“一步步回复”,很容易让人担心—— Cursor 真的是“有计划”地帮你解决问题吗?


🧠 Cursor 1.2 更新:Agent Planning & To-dos 正式上线!

Section titled “🧠 Cursor 1.2 更新:Agent Planning & To-dos 正式上线!”

在 Cursor 1.2 中,当你给 Cursor 一个复杂任务,比如:

“修复软删除患者导致的 SQL 错误,并确保逻辑覆盖所有 edge case。”

Agent 会自动:

  • 分析问题的上下文
  • 拆分成明确的子任务
  • 生成 To-do 清单,每个任务都可以勾选、追踪进度
  • 在执行过程中,动态标记已完成的步骤

这不再是「黑箱」Cursor,而是透明可控的开发搭档


🪄 示例:修复一个软删除关联的查询错误

Section titled “🪄 示例:修复一个软删除关联的查询错误”

来看一个真实开发中会遇到的问题:

eager_load(:patient)

这行代码在 Rails 中会执行 LEFT OUTER JOIN,但不会自动排除被软删除(soft delete)的关联记录

Cursor 在识别问题后,会这样分解任务:

  1. 修改查询逻辑,排除软删除的 patient
  2. Advice 模型新增 scope:只取 active patient 的数据
  3. 编写测试,验证软删除数据确实不会出现在结果中
  4. 把这个 fix 和最佳实践记录进 memory bank,供未来复用

整个流程中,你可以随时检查它下一步打算做什么,也可以跳过、调整或重试某一步。


✍️ 写代码不再是“盲目试错”,而是“协作式拆解”

Section titled “✍️ 写代码不再是“盲目试错”,而是“协作式拆解””

这个功能核心改变了我们和 Cursor 的协作方式:

  • 任务透明:你知道它总共要做几步,不再被动等待
  • 进度可控:每个子任务都有明确状态,支持打断和回滚
  • 经验积累:可以一键存入 memory,未来相似问题自动调用

说得直白点,Cursor Agent 现在像一位靠谱的实习生,不仅会写代码,还会先列出执行计划给你确认。


升级 Cursor 到 1.2 版本以上,确保你的项目里启用了 Agent 模式。

输入一个多步骤任务,比如:

“重构某段代码,确保逻辑清晰并覆盖测试,另外顺便更新 README。”

你会看到 Agent 自动拉起 To-dos 面板,一步步推进任务,透明且高效。


你是否愿意把「规划任务」这件事交给 AI? 你觉得 Cursor 拆分的计划是否符合你平时的工程思维?

欢迎在评论区聊聊你的看法!


ChatGPT Agent 试用感受:能读文章,但还不够“聪明”

ChatGPT Agent 初体验,感觉像是一个认真但还不太聪明的实习生。


有时候刷到一篇看起来很有价值的研报、深度评论,标题起得诱人,但内容复杂,专业词太多,看完得花半小时。

我最近就碰到一篇《美元还能跌多久?》的分析文,来自华尔街见闻,标题炸裂,内容也挺深,但实在没时间一字一句读完。

于是,我动了个念头:

能不能用 AI Agent 帮我快速分析总结一下?

于是就有了这次的试验——我让 ChatGPT Agent 试着帮我读文章。


简单说,这是 ChatGPT 的“多步执行”版本。

你不是只丢一个 prompt、返回一段答案,它可以多轮调用工具、多步骤完成复杂任务,比如阅读一篇文章、调用搜索、提取观点、做分析等等。

听起来很厉害,我以为能帮我“代劳”那种信息量大的文章分析任务。

结果呢?


耗时 14 分钟,结果可用但不实用

Section titled “耗时 14 分钟,结果可用但不实用”

我把《美元还能跌多久?》这篇文章内容传给 Agent,然后问它:

帮我提炼文章观点,给出重点逻辑,并附上投资相关的参考建议。

它确实很认真地做了事,


等了 14 分钟后,返回了一份结构化的分析,

大概分成:

  • 美元走弱的短期和长期逻辑
  • 作者引用的经济数据和观点
  • 市场对美元未来走势的分歧
  • 汇率与货币政策之间的联动机制

乍一看内容挺全,甚至有总结语句,看起来像模像样。

但最大的问题是:太笼统、太教科书,缺少“实际操作价值”。

比如我希望知道:

  • 现在是否已经跌到底部?有没值得关注的信号?
  • 对持有美债、QDII、美股的人,有何启示?

Agent 并不能回答这些。它只是在复述文章内容,没有“跳出”去整合更宽广的上下文。


整个过程让我感觉,它就像一个认真读完材料、做了笔记的实习生:

  • 会归纳,但不敢判断;
  • 会复述,但不会提炼洞见;
  • 会说“文章提到”,但不会说“这意味着你可以考虑xxx”。

更别说结合我自己的投资组合,或者当前汇率数据,给出实用建议了。

总结一下就是:内容可参考,但实用性不强。


那还能不能用?什么时候用比较合适?

Section titled “那还能不能用?什么时候用比较合适?”

虽然这次有点失望,但我觉得 ChatGPT Agent 依然有用。

它适合这些场景:

  • 懒得读全文时快速预览:比如开会前 10 分钟,快速抓重点
  • 帮忙整理结构:它比我快,能列出段落逻辑和要点,适合做讲解稿的底稿
  • 信息过载时的减负工具:让它帮我读 5 篇研报、提取共同点,这种体力活它很擅长

但要指望它帮我做判断、拍板、制定投资策略,目前还差得远。

或许需要继续深入地和 ChatGPT Agent 互动,给出更多上下文信息,才能让它更实用。


这次试用最大的感受是:

AI 不是替你思考的人,它是帮你快速“接管重复劳动”的加速器。

判断、理解、联系实际、结合经验,这些还是人类要做的事。

未来我会继续尝试把 ChatGPT Agent 用在信息初筛、知识归档、文档生成等任务上,而不是期待它一上来就“替我思考”。


你有没有试过用 ChatGPT Agent 做什么任务?效果怎么样?

留言区聊聊,我们一起探索 AI 真正能帮上忙的地方。

GitHub Copilot 实战:AI 帮你 Code Review 和写 Commit Message

👀 引子:代码多了,问题也多了

Section titled “👀 引子:代码多了,问题也多了”

做过测试、维护、重构的同学都懂,代码多起来后:

  • 一个改动牵一发而动全身
  • 一个小错误可能埋雷全局
  • 每次提交都要写 message,写不好还要被 Leader 提 Review

那有没有工具能帮你自动检查、自动总结?

有!

就是今天要介绍的——GitHub Copilot 的 Code Review 功能 + Commit Message 生成


🚀 快速开始:安装 GitHub Copilot 插件

Section titled “🚀 快速开始:安装 GitHub Copilot 插件”

在 VSCode,Cursor,Kiro,Trae, Windsurf 等插件市场中搜索:

GitHub Copilot

点击安装即可,记得用 GitHub 账号登录,并订阅(目前需要 Copilot 订阅)。

安装后,在侧边栏会出现 Copilot 图标,点击即可打开。

GitHub Copilot 提供三种个人版本: • Free(免费):每月可使用 2 000 次代码补全 + 50 次 Chat/编辑请求,适合初学者试用。 • Pro:每月 10 美元(或年付 100 美元),支持 无限补全与聊天使用,并包含 300 次“高级模型请求”(超额可按 $0.04/次 付费)。 • Pro+:每月 39 美元(或年付 390 美元),在 Pro 的基础上提升至 1 500 次高级请求额度,支持更多 AI 模型和优先访问权。

此外,Copilot Business(团队/企业版)售价为每用户 19 美元/月,包含团队管理、安全策略和 300 次高级请求额度。


在 VSCode 的 Source Control 面板(⌘+Shift+G)中,你能看到变更列表。

点击如下图红框中的按钮:

💬 图标 = Code Review - Uncommitted Changes

Copilot 会自动分析你的变更,逐个文件、逐行代码给出建议。


来看一段真实截图(如下👇):

User.new(
FixturesSetting[ENV['TARGET_ENV']] || 'sit']['users']['user_admin']
)

Copilot 自动分析说:

User.new 期望的是单独参数(username, password),你却传了个 hash,建议改成用 splat 操作符。

而且给出修改建议:

FixturesSetting[...]
**FixturesSetting[...]**

是不是比一个个找错高效多了?


每次提交是不是都想偷懒写个 “fix bug” 或 “update”? 🙃

GitHub Copilot 帮你自动生成有语义的 message:

只需要点一下这个按钮👇:

它会根据你的变更内容,自动生成一段合适的提交说明,比如:

feat: Refactor specs to utilize FixturesSetting for user and patient data across multiple test files

准确、清晰、还符合语义化 commit 标准。


  • Code Review 自动化:快速定位逻辑错误、不合理写法
  • Commit Message 自动生成:再也不怕提交“写不出名字”的变更
  • 多文件多段落支持:整个修改一气呵成

你平时是怎么做代码审查的?你会愿意让 AI 来帮你审查和写 commit 吗?

欢迎在评论区聊聊你的经验~

Claude Code 实践: 生成和维护接口文档 PDF 版本

日常工作中合同、协议、BLE 通讯规范……公司里总少不了一堆 PDF。 看着精美,改起来要人命:复制粘贴乱了套,排版全跑偏。 这篇文章分享一个“逆转 PDF → Markdown → PDF”的实战流程,用 Claude Code 三步搞定,还能顺带保留可编辑的 Word 版本。


  • 只剩 PDF,Word 丢了 → 无法维护
  • 合作伙伴只收 PDF → 格式必须统一
  • 想加新接口 / 表格 → 需要可文本编辑的格式

Claude Code 正好填补了这个坑。


PDF → Markdown(可编辑) → 更新 → PDF/Word 核心就是借助 Claude Code 的多模态解析与格式化能力。


目标:保留标题、表格、图片引用,一键转成干净的 .md

推荐提示词

请将下面这份 PDF 全面解析为 Markdown:
1. 保留所有标题层级 (#-###)
2. 表格按 Markdown 语法显示
3. 图片用 `![alt](placeholder)` 占位
4. 页脚、页码忽略
返回完整 Markdown 文本

Claude Code 会自动识别 PDF 中的结构,生成清晰的 Markdown 文档。

# CGM BLE 通讯协议 v2.1
## 1. 数据帧结构
| 字段 | 长度(Byte) | 描述 |
|-------------|-----------|-------------------|
| Frame Head | 2 | 固定 0x55AA |
| Length | 1 | 后续字节长度 |
| Cmd | 1 | 功能码 |
| Payload | N | 业务数据 |
| CRC16 | 2 | 低字节在前 |
![帧结构示意](fig/frame.svg)
> **注**:所有多字节字段均为 Little-Endian。

目标:补充最新接口、修正描述,让文档重新鲜活。

自动分析代码

请审查这段 Markdown,找出所有接口代码块:
- 检查参数命名是否一致
- 标注潜在错误并给出改进建议

Claude Code 会自动分析 Markdown 中的代码块,找出潜在问题并给出改进建议。

发现 2 处潜在问题:
1. “Cmd=0x07 上传血糖” 与接口清单中描述不一致(清单写 0x08)
2. “CRC16 校验算法” 未说明多项式,可参考 ITU-T X.25
改进建议:
- 更新接口清单或修正文档
- 在 <2.3 CRC 计算> 一节补充多项式 0x1021

或者手动补充细节

### /device/sync
| 字段 | 类型 | 必填 | 说明 |
|---------|------|------|---------------------|
| uid | str | Y | 设备唯一标识 |
| ts | int | Y | Unix 时间戳(秒) |
| glucose | int | Y | 当前血糖(mg/dL) |

目标:把更新后的文档再次输出为标准 PDF,递交合作伙伴。

推荐提示词

请将这份 Markdown 渲染为排版美观的 PDF:
- 使用 A4 页面
- 标题自动生成目录
- 表格水平居中

Claude Code 会生成一个格式统一 PDF 文档。


公司需要 Word 版本?用单页 HTML 曲线救国!

Markdown ➜ 单文件 HTML

将下列 Markdown 转成自包含(内联 CSS)的单文件 HTML,
方便 Word 打开无依赖。

Claude Code 会生成一个包含所有样式的 HTML 文件。

<!DOCTYPE html><html><head>
<meta charset="utf-8">
<style>
body{font-family:"Microsoft YaHei";}
h1,h2{margin:1em 0;}
table{border-collapse:collapse;width:100%;}
td,th{border:1px solid #ccc;padding:6px;text-align:center;}
</style>
</head><body>
<h1>CGM BLE 通讯协议 v2.2</h1>
<h2>1. 数据帧结构</h2>
<table>
<tr><th>字段</th><th>长度(Byte)</th><th>描述</th></tr>
<tr><td>Frame Head</td><td>2</td><td>固定 0x55AA</td></tr>
...
</table>
</body></html>

然后:

  1. Word 打开 HTML → 另存为 DOCX/PDF
  2. 得到可本地编辑的 Word + 最终 PDF,一鱼两吃。

通过 Claude Code 把失控的 PDF 拉回可编辑世界,再无痛输出标准 PDF/Word,一次解决“格式统一”与“内容可维护”两大痛点。

你手里还有哪些顽固的 PDF 想复活? 留言聊聊,说不定下一篇就写你的场景!

Kiro 实战:用 Kiro 实现 Rails 测试数据环境隔离,让 Spec 更清晰、可控

“为什么我本地跑得过,CI 一直 fail?”

“同一个接口,在 SIT 和 TEST 环境下返回的数据不一样?”

在实际项目中,如果你也遇到过这种 测试数据混乱环境不一致导致测试不稳定的问题,那本文一定能帮到你。

我们团队最近结合 Kiro 工具,在 Rails 项目中自动生成落地了一套简单又实用的方案:Spec 测试数据按环境隔离管理。不仅让测试变得更可靠,还为多环境协作打开了新思路。


🧠 为什么要做环境隔离的测试数据?

Section titled “🧠 为什么要做环境隔离的测试数据?”

在真实场景下,我们往往有多个部署环境:devsittestproduction……

每个环境可能使用 不同的账号、设备 ID、病人数据等 fixture,如果不加管理,测试脚本很容易耦合具体数据,导致:

  • 测试数据污染多个环境
  • 本地能跑,CI 失败
  • 引发「幽灵 Bug」:难复现、难排查

所以我们希望做到一件事:

测试数据也能像配置文件一样,按环境加载、按需注入


✅ Kiro 是如何帮助我们完成这个过程的?

Section titled “✅ Kiro 是如何帮助我们完成这个过程的?”

我们先把问题描述清楚,采用 Documentation-oriented 面向文档的方式

再看看 Kiro 提出的方案

Kiro 提出的这个方案,不仅让测试更加「干净整洁」,还解决了团队协作中常见的环境数据冲突问题。

他做了以下几件事:

  • 搭建了 fixtures_setting.yml 文件结构并抽取多个环境常用数据
  • 编写了通用的 FixturesSetting 工具类
  • 帮助 review 所有 spec/requests 中的数据使用方式
  • TARGET_ENV=sit rspec 实现按环境运行测试

最终,Kiro可以做到:

一套 Spec,跑遍所有环境

不仅稳定,而且便于 CI/CD 持续集成,还能作为「测试数据管理中心」,供其它服务读取。


🔧 怎么做?用 Kiro + YML 轻松搞定

Section titled “🔧 怎么做?用 Kiro + YML 轻松搞定”

Kiro 采用了三步走方案,核心是一个配置文件 + 一个加载类 + Spec 调用约定:


📁 第一步:创建统一的 fixture 配置文件

Section titled “📁 第一步:创建统一的 fixture 配置文件”

Kiro 新增了一个文件:

config/fixtures_setting.yml

里面以环境名分类管理 fixture 数据,并从 spec/requests 中抽取出常用的用户、病人等数据。

development: &development
sit:
users:
user_sit:
username: user_sit
password: 11111111
patients:
patient_001:
name: 张三
age: 36
test: &test
<<: *development
production: &production
<<: *development

这样,我们的测试数据就不再散落在各个 spec 文件中,而是集中管理、按环境组织。


💎 第二步:用 Ruby 类读取配置数据

Section titled “💎 第二步:用 Ruby 类读取配置数据”

Kiro 实现了写了一个小工具类 FixturesSetting,专门加载这个 yml 文件:

app/settings/fixtures_setting.rb
class FixturesSetting
def self.[](env)
@settings ||= YAML.load_file(Rails.root.join('config/fixtures_setting.yml'))
@settings[env]
end
end

这样在任何地方,都可以通过 FixturesSetting[ENV['TARGET_ENV']] 取到对应环境的测试数据,非常灵活。


🧪 第三步:在 spec 中使用环境数据

Section titled “🧪 第三步:在 spec 中使用环境数据”

来看个具体例子。我们有个用户登录接口的测试:

user_params = FixturesSetting[ENV['TARGET_ENV']]['users']['user_sit']
post '/api/login', params: { username: user_params['username'], password: user_params['password'] }

然后我们运行测试时,只需要设置环境变量即可:

Terminal window
TARGET_ENV=sit rspec spec/requests
Finished in 15.55 seconds (files took 3.64 seconds to load)
3 examples, 0 failures

你可以轻松切换为 testuatprod,每个环境都有自己的 fixture,互不干扰


  • 可以结合 dotenv 或 Rails credentials 自动注入环境变量
  • 考虑将 FixturesSetting 封装为 gem 或 engine,更好复用
  • 后续也可支持动态生成数据而非写死

你们团队在做 API 测试时,也遇到过测试数据混乱的问题吗? 你觉得这套方案是否适合自己的项目?

欢迎在评论区留言交流,我们可以一起打磨更通用的测试管理工具~


这篇文章,我们介绍了如何在 Rails 项目中结合 Kiro 提出的方案:

  • 用 YAML 管理不同环境的测试数据
  • 用工具类读取并注入到 Spec 中
  • 实现了按环境运行、数据隔离、测试可控

这就是一个简单实用、可扩展的测试环境隔离方案。 让测试更清晰,也让协作更安心。

读后感:《AI Coding 非共识报告》

腾讯研究团队通过数百位开发者的调查数据和企业动向案例,深入分析了 AI 编程(AI Coding)对个体和组织的影响。本篇文章将从 C 端消费者和 B 端企业的渗透程度出发,总结开发者和公司对 AI Coding 的态度、使用场景和 ROI 评价,并提出 AI 时代开发者的核心竞争力与发展方向。


C 端消费者:渗透迅速,初显规模化趋势

Section titled “C 端消费者:渗透迅速,初显规模化趋势”

根据 Menlo Ventures 和 Morning Consult 于 2025 年发起的美国消费者调查,AI 已快速渗透进日常生活多个场景,成为“隐性工具”。

C 端主要使用场景包括:

  • 文字写作支持(51%):AI 常被用于协助笔记、写信、生成文章初稿等工作/学习内容。
  • 程序生成与代码辅助(47%):AI 被用于快速编写代码、修改已有结构或探索表达方式,尤其对入门用户帮助明显。
  • 搜索研究/学习辅助(43%):AI 被当作英文书籍摘要工具、基础资料整理助手等。
  • 图文/音视频创作(约 37%-38%):如生成 PPT、封面图、脚本草案等。

Menlo Ventures 提出:虽然大部分消费者还没有系统性整合 AI 工作流,但 AI 工具在“非专业场景”的使用正成为主流。

同时,腾讯研究院指出,中国用户也呈现相似趋势,但使用场景更偏向教育、内容写作、翻译辅助、设计提效等“实用型任务”。


B 端企业与开发者:以代码工具为核心的生产力变革

Section titled “B 端企业与开发者:以代码工具为核心的生产力变革”

AI Coding 工具在企业中以 GitHub Copilot 为代表,是众多公司“尝鲜”AI 的第一选择。其核心价值集中在三个方向:

1. 企业最常使用的 14 类 AI Coding 场景(来源:腾讯研究院 & 53AI)

Section titled “1. 企业最常使用的 14 类 AI Coding 场景(来源:腾讯研究院 & 53AI)”
  • 代码辅助(生成、补全、改写)
  • 文本内容生成(报告、PPT 等)
  • 知识/文档问答(如自动查找接口说明)
  • 产品原型设计(草图 → HTML)
  • 数据分析与商业洞察
  • 销售话术优化/流程辅助
  • 客服机器人/CRM 整合
  • Bug 发现与自动化测试
  • DevOps / MLOps 工具链自动集成
  • 用户行为分析
  • 异常检测 / 安全告警
  • 自动筛选简历 / 撰写 JD
  • 合同审查 / 法务辅助
  • 财务对账 / 票据审核

  • Stack Overflow 2024 调查:76% 的开发者已使用或计划使用 AI 编程工具,其中 63% 为全职开发者。
  • 开发者感受:72% 表示正面或非常正面,只有 6.4% 明确表示负面。
  • 企业反馈:大公司使用 AI 工具后,平均节省 10%~30% 的人力投入或交付周期。
  • 个体开发者 更关注:补全效率、代码风格一致性、避免重复工作。

3. 使用频率数据(来源:Proxify)

Section titled “3. 使用频率数据(来源:Proxify)”
  • 77% 的开发者每天使用 AI 工具,去年同期为 47%。
  • 50% 以上用户表示每周节省 6 小时以上开发时间。
  • 无人表示 AI 工具浪费了他们时间。
  • 99% 的开发者愿意未来继续长期使用 AI 编程工具。

  • 正向派:认为 AI 提升了效率,是开发流程中“默认的一环”。
  • 中性派:认为“工具虽好”,但仍需搭配人类评审、流程规范。
  • 负面派:担心代码质量下降、不稳定或对组织结构带来冲击。


AI 时代开发者的核心竞争力与发展方向

Section titled “AI 时代开发者的核心竞争力与发展方向”

即便 AI Coding 工具再强,开发者依旧具备不可替代的核心价值。

一、从“码农”到“工程负责人”

Section titled “一、从“码农”到“工程负责人””

AI 工具让编码执行成本大幅下降,未来更看重的是谁能组织团队完成目标,谁能设计系统架构而非手写每一行代码。

能站在业务和产品角度思考问题,懂用户、懂目标,才能指导 AI 工具做出真正可用的方案。

不只是“用 AI 写代码”,而是让 AI 成为“团队一员”。懂得如何喂 prompt、如何检查结果、如何复用模型能力,是开发者的新常识。

四、多工程能力 + 持续学习能力

Section titled “四、多工程能力 + 持续学习能力”

AI 工具很强,但遇到跨模块、边缘案例、业务逻辑复杂的地方,仍需要开发者“会调研、懂逻辑、能判断”。


AI Coding 正以飞快的速度从“实验工具”变为“基础工具”。不论是 C 端的写作/编程辅助,还是 B 端的产品研发、设计、测试,AI 已经深度介入开发流程。

未来三年,最大的差距不会是“会不会用 AI”,而是“谁能让 AI 成为助力而不是障碍”。

希望每一位读者都能在 AI 时代,找到属于自己的价值锚点。

✨设计师福音:Figma Make AI 聊天就能生成原型与应用

有没有想过,只用一句话或一张图,对话式地告诉 Figma,就能直接变出一个可点交互的原型,甚至一个上线的 Web 应用? Figma Make 正是这样一款智能工具:用户可以通过与 AI 聊天,将你的设计想法或现有 Figma 设计稿,瞬间转成“从提示到代码”的产物。简单、高效,也更有乐趣。

https://www.figma.com/make/


不需要写一行 CSS,只需输入“帮我做一个登录页,带邮箱、密码、登录按钮”,AI 会自动生成高保真界面,并且支持点击交互。 这一步让设计从脑海直接跃出屏幕,省去了反复构建画布的麻烦。


有现成的视觉素材?没问题!你可以上传插图、LOGO、照片,AI 会识别样式和布局,把它变成组件或背景,快速构建视觉界面。 这是从“视觉到原型”的桥梁,特别适合品牌推广、内容营销场景。


不想从头来?直接把设计好的 Frame 复制到 Figma Make 中,AI 会继续补全交互逻辑和部分布局细节。 既保留原设计,又动手能力再上一层,省时又方便。


生成的内容,不只是个草图,还能发布成真实可访问的 Web 应用。

你可以直接在 Figma Make 中预览,或者部署到自定义域名上。

https://money-factor-60900756.figma.site/

Figma Make 更集成 Supabase 后端,支持用户认证、数据存储,还能定制域名上线。 设计+原型+发布,这条链一气呵成。


5. 选中元素控件继续与 AI 聊天微调

Section titled “5. 选中元素控件继续与 AI 聊天微调”

想优化某个按钮的颜色、边距或交互动效?选中它,直接再对话:“把按钮颜色调到渐变紫色”,“增加点 hover 动画”。 AI 会按需求即时调整,细节更精准,也能进一步推进原型走向上线。


Figma Make 就像你的 AI 设计助手——它能从文字、图片、现有设计中快速生成可交互原型,还能部署上线,并支持实时微调。 它极大简化了设计与开发的协作流程,让设计师不再局限于静态画布,而是和 AI 一起共建真实产品。 如果你是产品经理、设计师或创意创业团队,这款工具值得早点尝鲜,开启从想法到上线的加速之旅。


你觉得用 AI 聊天生成原型,听起来怎样? 你有想做的小项目可以试试?评论告诉我👇

Claude Code Specs Generator:让 Claude Code 像 Kiro 那样先看文档再写代码

不想再被“vibe-coding”带跑偏?

这款开源小工具 Claude Code Specs Generator 给 Claude Code 配上了一套“说明书生成器”——自动产出 6 份核心文档,把业务、技术、架构、任务写得明明白白,让 Claude 先看说明书、再动手敲代码。


  • AI ≠ 读心术 当上下文混乱,Claude 常常“自作主张”重写依赖或重复造轮子。Amazon Kiro IDE 用“Spec-Driven Development”解决了同样的痛点,实践证明:先生成规格,再生成代码,错误率大幅下降。

  • 团队协作节省 30% 沟通成本 统一的 product.md、tech.md、structure.md 让新人 10 分钟完成代码导览,减少口头交接。

  • Claude 推理更准 把这 6 份文档写进 CLAUDE.md,AI 每次响应都会加载它们,避免“记忆断片”。


分类具体文件作用
Steeringproduct.md / tech.md / structure.md业务目标、技术栈、目录规范
Specsdesign.md / requirements.md / tasks.md架构设计、用户故事、开发任务

系统分析你的仓库 & 文档,一键 /specs-create 全自动产出。

  • /specs-create 首建规格
  • /specs-init 刷新上下文(自动 /clear → /init)
  • /refresh-specs 根据最近 git 提交增量更新

Specs 写完后,生成器把文件路径写进 CLAUDE.md,下一次你在终端输入 @claude fix tests,Claude 就会参考最新规格执行。


  • 新项目零到一 拉个空仓库,跑 /specs-create,立刻得到“产品-技术-结构”三份方向文档,再迭代设计、任务。
  • 老项目治理 代码写多了想补文档?同样一键。生成器会扫描现有 PRD/TODO 文件并合并内容。
  • 持续交付 每发一个 PR 就触发 /refresh-specs CI 脚本,让规格跟着代码一起演进。

  1. 安装

    Terminal window
    npx @kellemar/claude-code-specs-generator
    • 不需要全局安装,执行完毕即在当前项目写入 .claude/specs/ 目录。
  2. 一键生成规格

    Terminal window
    /specs-create

    解析代码、旧文档,自动产出 6 份 Markdown 并更新 CLAUDE.md

  3. 加载上下文

    Terminal window
    /specs-init

    实质是 /clear → /init 组合,让 Claude 每轮都带着最新 Specs。

设置完成后,您的项目将包括:

your-project/
├── .claude/
│ └── steering/
│ ├── product.md # Product vision and business goals
│ ├── tech.md # Technology stack and constraints
│ └── structure.md # Code organization patterns
├── specs/
│ ├── design.md # Technical architecture
│ ├── requirements.md # User stories and acceptance criteria
│ └── tasks.md # Current development tasks
└── CLAUDE.md # Updated with document references

Specs Generator = “Kiro 味”的免费插件 无需跳槽到新 IDE,也能在现有 Claude Code 工作流里享受规格驱动的安全感。现在就试试 /npx @kellemar/claude-code-specs-generator,让 AI 和人类都少走弯路!


🤔 你会把它加进自己的项目吗? 留言聊聊,你最想自动化哪一步!

(下一篇我们将拆解如何把 Specs 写成 Mermaid 图,记得关注!)

AI时代软件工程师的核心能力在管理软件项目

💥引言:当“技术大牛”不再吃香

Section titled “💥引言:当“技术大牛”不再吃香”

还记得那个年代吗?只要你会写代码,能搞定系统架构,刷爆 LeetCode,一身技术流光闪闪,那就能横着走。 但 AI 来了,一切都变了。

今天,一个不怎么会写代码的人,靠 ChatGPT 就能拼出个 App;一个刚入行的新人,也能用 Claude 写自动化脚本,连测试都能顺带跑起来。

这时候你是不是也开始怀疑:“那我们这些工程师,到底还有什么价值?”

其实答案很明确:

AI 时代,真正值钱的能力,不是技术细节,而是管理能力。

不是传统意义上的“带团队”,而是广义的工程管理能力—— 怎么定义目标、组织信息、分解任务、协调 AI 和人、评估成果、及时调整。


🧠一:分配经济时代,人人都是“管理者”

Section titled “🧠一:分配经济时代,人人都是“管理者””

Dan Shipper 提出一个非常有趣的概念:

我们正从“知识经济”进入“分配经济”时代。

过去拼的是谁掌握更多技能; 而现在,拼的是谁能把 AI、信息和资源分配得更好。

这不是空谈,而是你每天用 AI 工作时的真实写照:

  • 如何把任务说清楚,让 AI 懂你?
  • 如何把一个复杂需求拆成几块,让不同工具各自高效完成?
  • 如何挑选模型,设置提示词,评估结果质量?
  • 什么时候放手让 AI 自己跑,什么时候你该下场细化?

听起来是不是很熟悉?这不就是一个“管理者”的日常工作吗?

最关键的是:

管理的门槛被 AI 降低了,每个人都可以当项目 owner。


🛠 二:未来最值钱的核心能力有哪些?

Section titled “🛠 二:未来最值钱的核心能力有哪些?”

根据 Dan Shipper 的观察和亲身实践,未来最稀缺的能力会包括:

  • 信息组织与问题表达:不是你懂得多,而是你能把问题讲清楚。
  • 资源调度和任务分解:把任务安排给合适的人/AI,并协调产出。
  • 判断力和结果评估能力:这东西做得好不好?值不值得信?
  • 愿景设定与目标驱动:告诉 AI 和团队“我们要去哪儿”。

说得更直白点:

你要学会用 AI“开公司”,而不是自己“写代码”。


🔁 三:通才价值回归,小团队才是未来

Section titled “🔁 三:通才价值回归,小团队才是未来”

AI 另一个巨大的改变,是它让“通才”变得更吃香了。

在 Dan 所在的团队里,15 个人个个身兼数职:

  • 一个人能写代码、做设计、做运营;
  • 一个项目可以从 0 到上线只靠 2-3 人完成;
  • AI 成为“专家补丁”,帮通才们在各自领域快速达标。

你不再需要每个岗位都配一个深耕十年的专家。 而是需要一批拥有大局观+动手能力+AI协同力的人。

未来的公司,也许就像现在的创业小团队:

每个人都能扛项目,每个人都能与 AI 协作生产,每个人都具备“管理式心态”。


🚀结语:AI 没有银弹,真正的能力才是王牌

Section titled “🚀结语:AI 没有银弹,真正的能力才是王牌”

是的,AI 很强,但它不是神。它无法替你设定目标,也无法判断什么是真正有价值的方向。

未来的软件工程师,不再只是“写代码的人”,也不是只懂架构的“技术大牛”。

而是:

能调度工具、评估成果、拆解问题、推动进度的“工程管理者”。

所以,与其卷新模型新框架,不如重新思考:

你真的掌握“分配 AI 能力”的管理技巧了吗?


📌 你怎么看? 你是否也有类似的转型体验,或者正感受到“AI 抢饭碗”的焦虑? 欢迎留言聊聊你对未来工程师能力模型的理解!

别再当“架构大牛” AI 时代工程师的下一站:工程管理者

AI 写代码越来越像开挂,可上线的项目却没少翻车。 如果交付还是拖、故障照旧爆,你的“炫酷架构”就只是 PPT。 真正的稀缺点,从来不是代码,而是工程、质量、安全和管理。

你有没有被这些场景扎心?

  • 代码秒生成,测试与回归却卡了两周
  • 模型回答“差不多”,产品经理追着问“到底行不行?”
  • 上线当天 CPU 飙红,工单排队

再不升级自己的 工程治理能力,AI 反而会放大团队的混乱。

思考一下:假如明天 80% 代码都交给 AI,你的核心价值还剩什么?


  1. AI 不是银弹:自动化≠可靠交付
  2. 工程为王:流程、质量、风险才是壁垒
  3. 管理进阶:沟通、协同、决策比写代码更难
  4. 成长路线:从“技术大牛”到“工程管理者”

“让 AI 来写就行” 是最大误区。 模型生成的代码看似完美,却常埋“边角 Bug”。 质量、可维护性、依赖升级……AI 没法拍板。

问题不在算法,而在缺乏工程保障。 CI/CD、测试用例、灰度策略这些“老活儿”,反而成了 AI 时代的硬刚需。


上线才算成绩单。 稳定性 = SLA × 可观测 × 演练。 把“部署后 30 天零事故”设为 KPI,你的技术决策就会更实际。

  • 建立 质量门禁:单元 > 集成 > 验收
  • 引入 错误预算:让产品、运维一起为风险买单
  • 每周 Post-Mortem:事故复盘写进 Playbook

试想:你们团队有清晰的“回滚脚本”吗?留言告诉我~


高手不是自己写得快,而是让十个人写得又快又对。 在 AI 帮忙产码后,协同、优先级、资源调度 立刻浮出水面。

  • 沟通:翻译商业目标 → 技术任务
  • 协同:拆分里程碑,锁关键路径
  • 决策:Bug vs. Feature?看数据,不看吵架


阶段关键能力工具/方法
助攻期流程守护Git Flow / Code Review
带队期质量驱动Test Pyramid / CI 绿灯
经营期风险治理SLA / SLO / 错误预算
战略期组织设计OKR / 预算 / 招聘

别只刷新框架,多做“工程教练”。 AI 可以写函数,写不出 文化与制度


AI 加速了写码,却也暴露了工程短板。 下一代软件工程师 = 工程 + 质量 + 管理 + AI。

今晚回头看你的项目看板:

  • 交付链有没有红灯?
  • 风险谁来兜底?
  • 流程是否可追溯?

觉得这篇文章有启发? 点个赞 ➕ 转发,让自己、同事和公司团队一起升级!


你对“工程管理者”这条路怎么看? 评论区聊聊你的困惑或经验,我都会回复!

C.O.D.E.S 实战指南:用 AI 高效上线一个产品官网

从 0 到上线官网,只需一套轻量协作循环

在团队想快速上线一个产品/服务的官网时,是否常遇到这些问题:

  • 文案来不及写?设计风格难统一?排期卡在开发?
  • AI 能帮忙,但协作太随意,效率没提升,反而更混乱
  • 用完就忘的 Prompt,无法复用,结果也无法解释
  • 没有留下清晰的文档、测试和知识资产,下一次只能重来

为了解决这些问题,我们实践出一套高效、轻量、可复制的人机协作循环 —— C.O.D.E.S


C.O.D.E.S 是五个阶段的协作闭环,让团队在日常任务中自然嵌入 AI,最终实现从灵感 → Prompt → 执行 → 共享的可控流程。

缩写含义目标
CCollaborate(协作)多人共创 Prompt,有留痕有节奏
OOptimize(优化)Prompt 逐步精炼,模型选择透明
DDocument(文档)自动/手动结合,留下完整知识与上下文
EEvaluate(评估)AI 输出自动检测 + 安全验证 + 成本评估
SShare(共享)模板、脚本、经验沉淀进仓库,可复用可培训

实战案例:一周内上线官网宣传页

Section titled “实战案例:一周内上线官网宣传页”

背景任务: 公司新产品准备上线,需要在 5 天内完成宣传页,包括定位文案、产品介绍、页面结构、上线部署。PM + 设计 + 前端 组成临时小队。


共写 Prompt、同步目标、统一方向

  • PM 在 建立协作页面,团队共写文案生成 Prompt:

    “请根据我们产品的三个核心卖点,生成一句官网主打文案,风格要简洁有记忆点,并符合 B2B 场景。”

  • 使用 ChatGPT / Gemini / Claude 等多模型并行实验,生成多版草稿。

  • 在 聊天工具总 留痕讨论:设计师选定基调 → 前端规划页面模块 → 文案定稿。


从“能用”到“好用”,逐步精炼流程

  • Prompt 从冗长杂乱,迭代为清晰结构化格式(包含角色、目标、语气等元素)。
  • 比较不同模型在中文口号生成上的表现,记录在 Notion 中。
  • 出现“文案重复”问题,编写 Post-processing 脚本做自动去重。

留下可复用的 Prompt 与上下文

  • 前端在 PR 中备注“首页 Hero 文案由 AI 生成”,附 Prompt 链接。
  • 自动生成页面组件 API 文档 + 使用说明。
  • 所有有效 Prompt 和输入/输出样例归档进“Prompt 模板库”。

不止看“写得快”,更关注效果和风险

  • 人工评审内容:是否符合产品定位?是否含偏见或模糊表述?
  • 使用自动测试工具检测 UI 样式一致性,页面加载性能。
  • 对比部署到不同 CDN 的成本,选择最优解。
  • 设置“沙盒验证”流程,确保新页面上线不影响原有网站结构。

知识资产沉淀,转化为组织能力

  • 在周五闪电分享中,PM 演示了从共创 Prompt 到上线的全过程。
  • 将本次项目的 Prompt + 组件代码 + 验收 Checklist 写进内部 Wiki。
  • 设计师将视觉模块组件打包进团队 UI Kit,供下次直接复用。
  • 下一个项目启动时,团队复用了 60% 以上的内容。

原来的问题C.O.D.E.S 之后的变化
文案协作杂乱,来回对齐成本高Prompt 共创+留痕+评审 → 节奏清晰
每次做官网都从头开始模板 + Prompt 库 + 组件仓 → 可复制
AI 输出质量不可控多模型对比 + 人审 + 自动测试 → 可预期
任务完成但无沉淀留下文档 + 数据 + 经验 → 成为组织资产

✅ 第 1 步:用 AI 共创一个小任务

Section titled “✅ 第 1 步:用 AI 共创一个小任务”

比如:写一个 Landing Page 的主视觉口号 + 描述文案 → 用 C.O.D.E.S 跑一遍流程,沉淀 Prompt 和文档

✅ 第 2 步:选一个 5 天内交付的项目跑 MVP 循环

Section titled “✅ 第 2 步:选一个 5 天内交付的项目跑 MVP 循环”

比如:上线一个产品功能页、准备一场活动官网 → 从协作、优化、留痕到评估、复用

评估 产品/服务有无指标增长 → 判停或转运营


指标名称说明
协作可见度有多少 Prompt 留痕在公共频道 / 工具
Prompt 轮次稳定性平均迭代次数(越低代表越清晰)
文档新鲜度最近 30 天内更新的文档比率
AI 测试通过率自动生成内容中一次性通过测试的比例

C.O.D.E.S 不只是一个框架,更是一种 人+AI 高效共创的工作节奏。它不要求你大改流程,只需“轻量嵌入”,就能收获:

✅ 成果更快 ✅ 流程更稳 ✅ 知识可沉淀 ✅ 团队能成长

下一次再要上线一个宣传页、功能页、活动页面,别再从 0 开始,让 C.O.D.E.S 成为你的小队作战脚本 💡


**📩 欢迎留言或评论 AI 对日常工作的实践场景和看法 **

StageWise:一句 Prompt,就能“点选-改界面”

“调个按钮颜色、改个文字,却要在代码库里翻半天?”——相信很多前端同学都有这份无奈。StageWise 给出的答案很简单:直接在浏览器选中元素,用自然语言告诉 AI 怎么改,剩下的交给它。它是一款 开源浏览器工具栏,把你正在跑的本地网页,与 Cursor、Copilot、Windsurf 等 AI 代码助手连起来,真正做到“所见即所得 + AI 代劳”。


  • 鼠标点选 DOM 元素,AI 自动获取 XPath、类名、截图等上下文,避免“描述半天选错组件”的尴尬。
  • 零生产包体积影响:工具栏只在开发模式注入,对线上构建毫无压力。

React、Vue、Svelte、Next、Nuxt、Angular 通通有官方示例,几乎可以无缝植入现有项目。

Cursor、GitHub Copilot、Windsurf、Trae……常见 AI 助手都能秒连,未来还支持自定义 Agent。

官方提供 CLI 一键脚手架,几分钟就能写个插件,把团队内业务 UI 规则也塞给 AI。

GitHub 4k+ Star,Reddit / Twitter 开发者口碑在线,“再也回不去纯手写改 UI 的时代”。


步骤命令 / 操作说明
1. 装扩展VS Code Marketplace 搜 StageWise,或在 Cursor 市场安装。
2. 让工具栏注入在 Cursor 命令面板输入 setupToolbar,自动完成依赖安装与注入。
3. 开启 dev 模式npm run devpnpm dev,页面右下角出现悬浮条即成功。
4. 选中元素 ➜ 发送 Prompt例如选中按钮后输入“把背景改成品牌紫”,几秒后自动生成 PR 或代码 diff。

小提示:手动集成也很简单——pnpm i -D @stagewise/toolbarinitToolbar(…)


npx create-stagewise-plugin 拉一个模板,给 AI 追加团队内部 Design System 颜色表,确保生成代码自带主题色。

安装 @stagewise/agent-interface,5 行代码启动 WebSocket 服务,让你的本地 LLM 也能成为 StageWise 好搭档。

一位前端在 Reddit 分享:复杂遗留项目也能秒接,UI 微调速度提升数倍,“不用再手输文件路径”。


如果你想让 AI 真正融入日常前端开发,而不是“抄代码片段”那点小忙,StageWise 值得你立即试试

留个思考题:

你最想让 StageWise 帮你解决什么 UI 痛点?

评论区聊聊,优秀观点下篇文章加彩蛋哦!

—— 对了,赶紧 star 一下,再拖就被同事抢先体验啦!

需要扩写或补充更多实战细节吗?告诉我~

初创公司AI落地实操指南:从培训到提效,一步步搞定!

近年来,生成式人工智能(AI)掀起了企业变革的浪潮,各行各业的公司纷纷宣布“AI优先”战略,将AI融入日常运营。正如一位对冲基金CEO所说,不用AI就像拒绝在1995年使用互联网——这些工具能让人瞬间变得更聪明、更高效。许多领军企业已经行动:Shopify等公司甚至将使用AI列为硬性绩效要求,要求员工申请新资源前先证明AI无法胜任该工作,并在项目原型阶段优先用AI探索。多邻国(Duolingo)也在全员信中宣布彻底转型为“AI优先”公司,并通过AI在不到一年内开发出148门新课程,数量超过过去12年的总和!可见,善用AI能够带来10倍乃至100倍的效率提升。对于初创企业来说,如何跟上这股潮流,将AI真正落地到团队工作中,是关系到效率和竞争力的关键问题。本文将结合业内优秀实践,为初创公司提供一套逐步实施AI培训和应用落地的实操指南。

第一步:高层带头,营造AI优先文化

Section titled “第一步:高层带头,营造AI优先文化”

要成功推动AI落地,企业高层的态度和参与至关重要。CEO和创始团队必须以身作则,亲自体验并日常使用ChatGPT、Claude等AI工具。如果领导者自己每天都用AI并觉得它“很酷”,整个公司往往会快速跟进。这并非夸张:据观察,CEO是否主动用AI是企业成功落地AI的首要预测指标。那些由CEO亲自推动的公司,员工更有热情去尝试AI,创新文化也更容易形成。

高层应明确向全员传达“AI优先”的战略决心。例如,Shopify CEO的内部备忘录开门见山地指出:“本能地使用AI,现在是对每个人的基本预期”。这封信不是泛泛号召,而是将AI应用提升到战略和制度高度,要求从CEO到所有员工无一例外地将AI融入工作。领导者可以参照这样的做法,发布全员信或在全员大会上宣示AI战略,将“先用AI再求助他人”写入公司的文化准则和绩效考核。重要的是,高层要真正投入,深入了解AI的潜力和局限,而不把它仅当作IT部门的事情。只有当领导层自身认知到位、带头实践,才能为全公司树立榜样,营造出拥抱AI的组织氛围。

第二步:调研现状,识别AI应用场景

Section titled “第二步:调研现状,识别AI应用场景”

在明确决心后,下一步是找出团队工作中最适合引入AI的切入点。初创公司可以进行一次内部调研或头脑风暴,梳理各岗位、各业务流程中重复繁琐、耗时较多的任务清单。例如,客服是否经常回答重复的问题?市场团队是否需要大量撰写文案?开发人员是否进行重复的代码检查?这些环节都可能由AI来提效。许多AI咨询顾问在进入企业时,会对各团队的工作流程做访谈调研,找出可以用AI优化的痛点,然后形成简报向管理层反馈解决思路。初创团队规模不大时,可以由创始人或指定的“AI负责人”亲自主导这个过程,绘制AI应用地图:列出短期内可尝试的AI用例和长期可探索的项目。

在此基础上,建立一个内部知识库来沉淀这些调研结果和潜在用例。比如,将收集到的案例、操作指南汇总成文档,甚至构建一个简单的内部聊天机器人,让员工可以提问“我们如何用AI加速XX任务?”并从中获得答案。这类似于咨询顾问为客户构建的访谈资料检索Bot,帮助员工自助探索AI机会。通过这样的知识库,团队成员在日常工作遇到问题时,可以方便地搜索AI解决方案,逐步形成“先问AI”的习惯。

第三步:定制化培训,全面提升团队AI技能

Section titled “第三步:定制化培训,全面提升团队AI技能”

确定了应用场景后,需要对团队进行系统的AI技能培训。调查显示,将近一半的员工希望获得正式的AI培训,并认为这是提升AI采用率的最佳途径。初创公司可以根据各岗位的需求,制定针对性的培训计划。AI是通用技术,不同职能的用法千差万别。因此培训要贴合业务:让市场人员学会用生成式AI撰写文案、让客服学会用对话模型回答客户问题、让产品和技术团队学会利用AI辅助代码和原型设计等。

实践证明,小步快跑的培训更有效。可以安排一个为期4周的培训冲刺:每周利用1小时开展一次培训或工作坊,连续四周覆盖关键技能。每次聚焦一个主题,例如“AI写作技巧”“构建Prompt的技巧”“利用AI做数据分析”等,让员工逐步消化吸收。在两次培训间隔中,鼓励学员在实际工作中练习,将所学应用到手头任务,并在下次培训时分享反馈。为了确保培训知行合一,管理者应为每位员工设计贴合其职责的练习。例如,为销售人员准备模拟客户问答的提示词,为HR提供AI筛选简历的示范。这种定制化场景练习能让员工真切体会到AI对本职工作的帮助,从而提高学习兴趣和使用意愿。

值得注意的是,培训不仅要教会“怎么用”,还要让团队了解AI的局限性和最佳实践,管理好预期。当前的AI模型并非万能,仍有错误和不完善之处。如果对AI寄予不切实际的高期待,可能会在遇到挫折时失望放弃。因此培训中要介绍AI适合解决的任务类型、常见错误及应对方法,帮助员工建立正确心态:把AI当成强大的助手,而非完美的魔杖。当员工既掌握了技能又抱有理性预期时,AI工具才能真正长期融入他们的日常工作。

第四步:发掘内部AI先锋,推动经验共享

Section titled “第四步:发掘内部AI先锋,推动经验共享”

在团队内部,往往存在对新技术接受程度不同的“三八三二”现象:大约10%的员工极为热衷于尝试AI,10%可能排斥或抗拒,剩下80%则观望为主,如果有人指导他们在本职工作中使用,他们就愿意尝试。初创公司应充分利用前10%“AI极客”员工的力量,让他们成为内部AI先锋和示范者。

具体可以采取以下措施:

  • 指定AI冠军或导师:从热衷探索AI的员工中挑选“AI冠军”,让他们在团队里充当导师角色,随时解答同事关于AI工具的疑问,分享自己的使用技巧。这不仅给予先锋者荣誉感和责任,也为其他人提供了就近学习的榜样。

  • 建立分享机制:定期组织AI经验分享会。可以每周一次线上或线下分享,让员工展示自己用AI完成的工作案例、遇到的问题和解决心得。这种**“每周Prompt秀”**能够让不同岗位的同事互相借鉴,激发新的创意火花。

  • 内部交流渠道:搭建公司内部的AI交流平台,例如Slack频道、微信群组等,鼓励员工随时在上面讨论AI的新发现、新应用。从Shopify等公司的经验来看,公司提供充足的AI工具并鼓励在内部频道分享成功与失败的案例,有助于营造互助的学习氛围。当大家看到同事们用AI解决实际问题,自己也会更有动力跟进尝试。

  • 经验库和Prompt库:收集整理员工共享的优秀用例和提示词,汇总成AI经验库Prompt手册。这样新人或暂时没想法的员工可以参考他人成功案例,降低摸索门槛。让早期使用者的探索成果转化为全员可复用的流程和模板,少走弯路、快速见效

通过以上方法,把分散的个人探索变成全公司的集体学习。只要给这些AI先锋提供舞台和奖励,让他们脱颖而出,整个组织的学习和创新就会自动传导开来。这正是推进AI落地的秘诀之一:让内部创新的火种形成燎原之势

第五步:建立激励机制,将AI应用常态化

Section titled “第五步:建立激励机制,将AI应用常态化”

要让AI应用不昙花一现,必须把它融入日常工作的考核和激励机制中,形成持续改进的闭环。正如有专家指出的,光靠一纸强硬的通知推动变革风险很高,除非配套跟进培训、工具和管理支持,否则容易流于形式。因此,公司需要在制度上为AI落地保驾护航。

绩效考核与目标绑定:将AI使用情况纳入员工绩效指标是一种直接有效的做法。例如,考察员工在完成任务时有无借助AI工具、使用频率和创造的增量价值;团队在申请新增人手或预算前,需证明已经充分利用AI提升效率。这种机制传递出明确信号:AI应用不是可有可无,而是工作的新常态和基本要求。当然,设置指标时要合理,引导为主,避免过度施压引发反感。关键是让员工意识到,善用AI将对个人发展和团队业绩产生积极影响。

数据跟踪与排名:借鉴对冲基金Walleye的做法,可以建立AI使用情况的仪表盘或排行榜。例如,统计每个团队或个人使用ChatGPT等工具的次数、频率,甚至评估由AI辅助完成任务的数量。定期(如每周或每月)公布这些数据,在全员邮件中表扬进步明显或善于分享提示词的员工。这种透明度一方面营造出一种**“友善竞赛”**的氛围,激励大家你追我赶地学习AI;另一方面也让管理层掌握各部门AI落地的实时情况,及时发现障碍和亮点。

奖励早期采纳者:对积极拥抱AI并产生显著成果的员工给予奖励和认可。例如物质奖励、晋升考虑,或邀请他们在更大范围分享经验。Walleye公司甚至将AI采纳度与奖励挂钩,用排行榜和奖励机制鼓励最快的学习者,使AI应用在内部真正“Mandatory, not optional”。初创公司可以因地制宜设计激励,例如月度“AI创新奖”、对节省成本或提效显著的团队给予嘉奖等。

将成果融入业务目标:在OKR或季度目标中加入AI相关的任务指标,比如“本季度利用AI自动化X个流程”“团队人均处理客户请求数提高Y%(借助AI工具)”等。这会驱使各业务负责人主动思考如何用AI达成业务提升。在设置这些目标时,可以参考员工的意愿和反馈,确保目标具有可行性和挑战性并重。

通过制度和激励,将员工使用AI从一次活动变为长期习惯。只有当大家意识到公司持续关注并重奖AI应用带来的成效时,AI才能真正融入组织血脉,成为每日工作的自然组成部分。而一旦进入这种正循环,团队的AI成熟度会越来越高,带来的效益也会逐步显现和放大。

第六步:深度整合AI工具,优化业务流程

Section titled “第六步:深度整合AI工具,优化业务流程”

培训和文化到位后,关键是将AI深度整合进公司的日常业务流程中,实现真正的效率跃迁。McKinsey的调研显示,员工认为将AI无缝集成到现有工作流是促进每日使用的重要因素之一(有45%的员工持此观点)。初创公司应当审视各核心流程,探索如何借助AI重新设计这些流程,以更少的人力投入获得更高产出。

具体来说,可以从以下方面入手:

  • 客户服务与运营:考虑引入AI客服助手,对常见客户问询进行自动回复或辅助支持。许多初创企业已经用少量本地员工配合AI客服平台,处理相当于过去海外几十人呼叫中心的工作量,以更低成本提供7×24支持。虽然当前AI客服尚不能完全自主,但借助AI,两三人即可承担原团队数十人的工作量,极大提升运营效率。

  • 会议与知识管理:引入AI记录和纪要工具,将公司内部的会议、头脑风暴自动录音转写,并用AI提炼要点、生成待办事项。例如Walleye公司在推进AI战略6个月后,已经实现每场会议自动录制和转录,并由AI挖掘其中的见解供团队参考。初创公司也可采用类似方案,减少人工记录的负担,确保知识沉淀不遗漏。

  • 内部信息搜索:搭建企业内部的AI知识库或搜索助手。例如,把公司文档、Wiki、代码库接入一个内部大模型,让员工可以像ChatGPT那样询问内部信息。这相当于为每个员工配备一个知识型AI助手,可以迅速从海量资料中找到答案,避免重复询问和信息孤岛。

  • 研发与产品:在开发流程中嵌入AI。例如利用AI代码助手(如GitHub Copilot、Cursor等)加速编码和代码审查;用生成式AI帮助产品经理快速产出原型设计文档或用户故事。在Shopify的要求中,所有项目原型阶段都以AI探索为核心,其目的是促使团队用AI快速试错、迭代,加快产品开发节奏。

  • 数据分析与决策:给业务和数据团队配备AI数据分析工具。现代AI可以自动解析数据集、生成分析报告、预测趋势,帮助小团队完成过去需要数据科学家才能做的工作。团队也可以构建自己的决策支持AI,将行业数据、用户反馈等信息输入模型,让AI帮助发现模式和机会。例如,一些对冲基金开发了内部AI系统(如Walleye的“Borg”智能层)来吸收财报、建模风险,寻找投资洞察。

通过以上举措,初创公司可以在不显著增加人力的情况下,让现有人手借助AI实现倍增效能。一旦AI融入业务主流程,许多以前“不可能完成的任务”将变得可能。例如,多邻国通过AI极大加速了新课程开发,从而更快地服务用户需求。类似地,初创企业可以把省下的人力和时间投入到更具战略价值的工作上,比如产品创新和市场拓展。正如有人所说,AI就是企业的新“运营杠杆”,忽视它意味着可能被竞争对手抛在身后。

当然,在整合过程中也要注意信息安全和合规,确保对敏感业务的AI应用有必要的审核和监控。但总体而言,大胆拥抱AI、重塑工作流程的企业,将有机会跑出更快的增长曲线。

将AI培训和应用真正落地到一家初创公司,并非一日之功,而是一个持续学习和迭代的过程。这场变革涉及技术、流程和文化多方面,需要高层决心、全员参与以及耐心打磨。在实施过程中,可能会遇到一些阻力和挑战:例如个别员工的抵触、AI工具的局限导致一时效果不佳等等。对此,领导者需要有正确的期望管理和沟通。AI不会一夜之间解决所有问题,但方向是明确的——正如红皇后赛跑的寓言所示,在快速前进的环境中,不进则退

令人欣慰的是,绝大多数成功实践表明,AI落地带来的主要是效率提升和能力扩充,而非大规模裁员。许多企业的经验是,现有员工在AI加持下可以完成以前需要更多人手才能完成的任务,用同样的预算走得更快更远。这也为初创公司提供了一个信号:与其担心AI取代人,不如思考如何用AI让小团队发挥大能量。甚至有观点认为,AI可能将一些过去外包海外的工作重新带回本土,由少数本地员工+AI解决,从而提高产出质量的同时降低沟通成本。

最后,领导者应保持对AI发展动态的关注,并鼓励团队终身学习。AI技术日新月异,新工具和新功能层出不穷,公司需要不断更新培训内容和应用策略,避免僵化。可以考虑设立“AI运营负责人”或内部专家角色,专门跟进最新进展并评估其业务价值,让公司始终走在曲线前沿。在未来的职场中,每个人都将成为AI工具的“管理者”和“合作者”。初创公司具备船小好调头的优势,更应当善用这一优势,在组织中培养灵活试错、拥抱新技术的文化。

总之,AI时代的帷幕才刚刚拉开。越早掌握这把“效率之钥”,初创团队就越有机会在激烈竞争中脱颖而出。从高层率先垂范,到全员技能提升;从机制保障激励,到流程深度重塑,每一步扎实推进,都会让AI真正融入公司的肌理,成为助力成长的强劲引擎。与其观望,不如行动;让AI为你所用,做更多、做更好,未来已来,现在就出发!

参考文献:

  1. RichChat,《拥抱或淘汰?聊聊Shopify CEO这封强制全员学习AI的内部信》
  2. RichChat,《AI-First转型浪潮:从Shopify到多邻国和Box,AI优先的组织到底是什么样的?》
  3. Stuart Willson, LinkedIn帖子: “How Walleye Capital leveraged AI for $10B AUM”
  4. Dan Shipper播客访谈,《At This $10B Hedge Fund, Using AI Just Became Mandatory》文字记录
  5. McKinsey《AI in the workplace: A report for 2025》
  6. Lenny’s Newsletter播客访谈,《The AI-native startup: … | Dan Shipper》摘要

Claude Code + Kimi K2:一行搞定国内终端级 AI 编程

本文带你用 一行环境变量,把终端里的 Claude Code 换上月之暗面的 Kimi K2 ——便宜、快,又不用“翻山越岭”。下面先给出快速结论,随后分步骤详解,照着抄即可。


  • Claude Code 的 Agent 工作流爽点满满,但默认只能连 Anthropic 官方模型,费用和网络都伤不起。
  • Kimi K2 公开提供 Anthropic‑兼容 API,1 k tokens 0.02 元起,比官方便宜一个数量级;长上下文、代码能力也在线。
  • 只要提前申请 Moonshot API Key,并把 ANTHROPIC_AUTH_TOKENANTHROPIC_BASE_URL 填好,Claude Code 就会把 K2 当成 “正版 Claude” 使用,无需改源码或代理。

必备软件最低版本
Node.js18+
npm8+
Git2.20+

在终端里 node -v 验证即可,低于 18 请升级到 LTS 版。

然后全局装 Claude Code:

Terminal window
npm install -g @anthropic-ai/claude-code
claude --version # 能看到版本号就 OK

  1. 访问 Moonshot 控制台 https://platform.moonshot.cn/console/api-keys,创建新 Key(前缀 sk-)。

  1. 复制并妥善保存,之后无法再次查看。

Terminal window
export ANTHROPIC_AUTH_TOKEN=sk-你的Key
export ANTHROPIC_BASE_URL=https://api.moonshot.cn/anthropic
claude # 现在所有请求已走 Kimi K2
Terminal window
set ANTHROPIC_AUTH_TOKEN=sk-你的Key
set ANTHROPIC_BASE_URL=https://api.moonshot.cn/anthropic
claude

TIP:想永久生效,把两条 export/set 写进 ~/.bashrc~/.zshrc 或「系统环境变量」里。


打开新终端运行 claude,提问:

/status

若看到 Anthropic Base URL: https://api.moonshot.cn/anthropic,说明已连上 K2。你也可以随手让它写段代码,速度和费用明显下降。

定期检查 Moonshot 控制台,查看 K2 的使用情况和费用。


症状处理方式
出错 “401 Unauthorized”确认 ANTHROPIC_AUTH_TOKEN 是否带 sk- 前缀且未过期。
提示需登录 Anthropic加一句 export ANTHROPIC_API_KEY=NOT_NEEDED 绕过检查。
想临时切回官方 Claudeunset ANTHROPIC_BASE_URL 即可;再设回来就重连 K2。
代理软件冲突若本机跑有代理脚本(如 kimi-cc),确保端口不占用,或改成上面官方直连方案。

  • Moonshot K2:输入 1 k tokens 0.02 元,输出 0.06 元;比官方 Claude Opus 便宜 ≥ 10 ×。
  • 实测写一个小型网页游戏总花费 ≈ 0.6 元,真·“1 块钱外包”。

把 “贵+网络” 的痛点,变成 “省钱+直连” 的爽点——只需两行环境变量,Claude Code 秒换 Kimi K2,终端立刻升级国产大模型引擎。

玩得开心,别忘了 claude 里敲一句 :set language zh,让 AI 也说中文;更多新姿势,评论区见!

Grok CLI: 将你的终端变成 Grok 的 AI 智能助手

在当今这个时代,命令行界面(CLI)仍然是许多开发人员和系统管理员不可或缺的工具。如果我们将强大的人工智能(AI)与 CLI 相结合,会产生怎样的火花呢?

今天,我们就来介绍一款名为 Grok CLI 的开源工具,它能将 xAI 的 Grok 大模型的强大功能直接集成到您的终端中,让您通过自然语言完成各种复杂的任务。

Grok CLI 是一个开源的 AI 代理,它将 Grok 的强大功能直接带入您的终端。它不仅仅是一个简单的聊天机器人,更是一个能够理解您的意图、并智能地调用各种工具来完成任务的智能助手。

您可以像与真人对话一样,用自然语言向 Grok CLI 发出指令,例如:

  • “帮我看看 package.json 文件里有什么内容”
  • “创建一个名为 hello.js 的新文件,并写入一个简单的 console.log
  • “找出 src 目录下所有的 TypeScript 文件”
  • “将所有 JS 文件中的 oldFunction 替换为 newFunction
  • “运行测试并告诉我结果”

Grok CLI 会自动分析您的指令,并选择最合适的工具来执行,例如查看文件、创建文件、编辑文件、执行 shell 命令等等。

  • 🤖 对话式 AI: 由 Grok-3 提供支持的自然语言界面。
  • 📝 智能文件操作: AI 自动使用工具来查看、创建和编辑文件。
  • ⚡ Bash 集成: 通过自然语言对话执行 shell 命令。
  • 🔧 自动工具选择: AI 智能地为您的请求选择合适的工具。
  • 💬 交互式用户界面: 使用 Ink 构建的精美终端界面。
  • 🌍 全局安装: 通过 npm i -g @vibe-kit/grok-cli 在任何地方安装和使用。

首先,您需要确保您的电脑上已经安装了 Node.js 16+,并且拥有一个来自 x.ai 的 Grok API 密钥。

然后,通过以下命令进行全局安装:

Terminal window
npm install -g @vibe-kit/grok-cli

您可以通过以下三种方式之一来设置您的 Grok API 密钥:

  1. 环境变量:
    Terminal window
    export GROK_API_KEY=your_api_key_here
  2. .env 文件:
    Terminal window
    cp .env.example .env
    # 编辑 .env 文件并添加您的 API 密钥
  3. 命令行标志:
    Terminal window
    grok --api-key your_api_key_here

设置好 API 密钥后,您就可以开始使用了!

直接在终端中输入 grok 即可启动对话式 AI 助手:

Terminal window
grok

您还可以通过 -d 参数指定一个工作目录:

Terminal window
grok -d /path/to/project

Grok CLI 还支持自定义指令,让您可以根据项目的具体情况来“调教”Grok 的行为。

您只需要在您的项目目录下创建一个 .grok/GROK.md 文件,并在其中添加您的自定义指令即可。例如:

# Custom Instructions for Grok CLI
Always use TypeScript for any new code files.
When creating React components,
use functional components with hooks.
Prefer const assertions and explicit
typing over inference where it improves clarity.
Always add JSDoc comments for public
functions and interfaces.
Follow the existing code style and patterns in this
project.

Grok CLI 会自动加载并遵循这些指令,让您的 AI 助手更加贴合您的项目需求。

Grok CLI 将 AI 的强大能力与 CLI 的高效便捷完美结合,为开发人员和系统管理员提供了一种全新的工作方式。它不仅能极大地提高您的工作效率,还能让您以一种更加自然、更加直观的方式与您的计算机进行交互。

如果您对 Grok CLI 感兴趣,不妨访问它的 GitHub 仓库 - https://github.com/superagent-ai/grok-cli 了解更多信息,并亲自上手体验一番!

Claude Code Templates:一键生成+实时监控你的 Claude Code 配置

claude-code-templates 是由开发者 Daniel Avila(davila7)打造的开源 CLI 工具,旨在帮助开发者快速配置和监控 Claude Code。它能一键生成项目配置、分析现有设置,并实时展示运行状态,非常适合搭配 Claude Code 使用 。


  • 支持 JavaScript/TS(含 React、Vue、Angular、Node.js)、Python(Django、Flask、FastAPI)、通用模板,其他语言如 Go、Rust 即将支持 。
  • 支持交互式启动,也可通过参数如 --language, --framework, --yes, --dry-run, --directory 等实现一键化配置 。
  • 安装命令为:npx claude-code-templates@latest,无需全局安装。也可一键安装为全局命令:npm install -g claude-code-templates
Terminal window
npx claude-code-templates@latest
██████╗██╗ █████╗ ██╗ ██╗██████╗ ███████╗
██╔════╝██║ ██╔══██╗██║ ██║██╔══██╗██╔════╝
██║ ██║ ███████║██║ ██║██║ ██║█████╗
██║ ██║ ██╔══██║██║ ██║██║ ██║██╔══╝
╚██████╗███████╗██║ ██║╚██████╔╝██████╔╝███████╗
╚═════╝╚══════╝╚═╝ ╚═╝ ╚═════╝ ╚═════╝ ╚══════╝
██████╗ ██████╗ ██████╗ ███████╗
██╔════╝██╔═══██╗██╔══██╗██╔════╝
██║ ██║ ██║██║ ██║█████╗
██║ ██║ ██║██║ ██║██╔══╝
╚██████╗╚██████╔╝██████╔╝███████╗
╚═════╝ ╚═════╝ ╚═════╝ ╚══════╝
████████╗███████╗███╗ ███╗██████╗ ██╗ █████╗ ████████╗███████╗███████╗
╚══██╔══╝██╔════╝████╗ ████║██╔══██╗██║ ██╔══██╗╚══██╔══╝██╔════╝██╔════╝
██║ █████╗ ██╔████╔██║██████╔╝██║ ███████║ ██║ █████╗ ███████╗
██║ ██╔══╝ ██║╚██╔╝██║██╔═══╝ ██║ ██╔══██║ ██║ ██╔══╝ ╚════██║
██║ ███████╗██║ ╚═╝ ██║██║ ███████╗██║ ██║ ██║ ███████╗███████║
╚═╝ ╚══════╝╚═╝ ╚═╝╚═╝ ╚══════╝╚═╝ ╚═╝ ╚═╝ ╚══════╝╚══════╝
🚀 Setup Claude Code for any project language 🚀
🚀 Welcome to Claude Code Templates!
? What would you like to do? (Use arrow keys)
📊 Analytics Dashboard - Monitor your Claude Code usage and sessions
🔍 Health Check - Verify your Claude Code setup and configuration
⚙️ Project Setup - Configure Claude Code for your project
  • 启动命令 --analytics,打开本地仪表盘(默认 http://localhost:3333),展示 Claude 会话数量、Token 使用量、会话历史、项目活动等。
  • 支持 CSV/JSON 导出,完全本地运行,无数据外泄 。
  • Reddit 上有人评论:“Real‑time monitoring … runs completely local (localhost:3333)… Token usage insights have been eye‑opening!” 。
  • 使用 --health-check 可以验证系统环境、Node.js 版本、网络连通性、Claude Code 配置、hooks、MCP 等,提供可视化检查结果与建议 。

可通过以下命令进行深入分析:

Terminal window
npx claude-code-templates --commands-stats
npx claude-code-templates --hooks-stats
npx claude-code-templates --mcps-stats

命令会输出命令文件统计、hooks 启用状态、MCP 服务状况、AI 优化建议等 。

支持 dry-run 模式预览操作,自动备份已有配置,改动前弹窗确认,随时可取消。同时 --yes 可跳过询问自动执行 。


Terminal window
npm install -g claude-code-templates
npx claude-code-templates

进入目标项目路径,一步配置完成。

Terminal window
npx claude-code-templates \
--language javascript-typescript \
--framework react \
--yes

针对 Python + Django 可类似使用:--language python --framework django --yes

Terminal window
npx claude-code-templates --analytics
Terminal window
npx claude-code-templates --health-check
Terminal window
npx claude-code-templates --commands-stats
npx claude-code-templates --hooks-stats
npx claude-code-templates --mcps-stats

  • 省时省力:原本需要手动配置的 .claude/CLAUDE.md、commands、MCP、hooks,现在几秒就搞定。
  • 实时可视化:Analytics Dashboard 对 session 监控和 token 使用一目了然。
  • 规范 + 安全:自动备份+dry-run+确认机制,保障项目配置安全。
  • 优化建议:命令分析和 hook/MCP stats 帮助你优化并形成最佳实践。

Reddit 用户纷纷点赞其 Dashboard 功能:

“Real‑time monitoring of all Claude Code sessions… Token usage charts and project activity breakdown… runs completely local” 。

社区也在热议新增功能请求,如支持 SwiftUI 项目模板等 。

另外,作者刚刚上线了在线模板预览页面,用户可通过网页浏览模板、复制安装命令,并贡献自己的模板到社区 。


claude-code-templates 是一句话:让 Claude Code“即用即配、可监控、可优化”。 适合追求高效开发流程、喜欢仪表盘视图以及重视配置安全的团队或个人。 接下来项目将支持更多语言/框架,如 Go、Rust,并开放在线社区提交模板入口,共建生态。


希望这篇文章能帮助你快速了解并上手 claude-code-templates,让你的 Claude Code 开发更加轻松、可视、专业。 打开终端,试试:

Terminal window
npx claude-code-templates --analytics

开始一段更智能的开发旅程吧 ✨

日报 - 2025-07-21

一张Avalanche雪崩卡实体卡💳,国内证件可办理,不仅0月费、0制卡费、0寄卡费,还能用AVAX/USDC/USDT全球刷Visa,国际刷卡只收1%手续费,从下载App→秒过KYC→申请实体卡→几天后到转运仓

https://mp.weixin.qq.com/s/Ih3YdJkkeGlAjw9cELNNoA

iFAST Global Bank(iGB)英国借记卡💳,需要英国地址,首卡免费

目前在iFAST Global Bank手机App中还没有单独的入口,只有申请加入测试的用户才能申请实体卡。

https://www.ifastgb.com/tellafriend/chaod1702

VibeTunnel:一键把浏览器变成 Mac 终端,随时随地 Vibe Coding

在一台 Mac 上安装 VibeTunnel 后,你可以直接在PC、手机和Pad浏览器里打开 查看、输入、甚至同时开启多路终端,而无需本地安装 SSH、端口映射或其他繁琐配置——真正做到“电脑在家跑,手机也能敲”。

  • 远程盯盘 & 运维:出门在外也能随时查看 build 日志或监控 AI Agent 状态,不用再连 VPN 或开 VNC。
  • 团队协作:通过浏览器把终端共享给同事,省去共用账户或复杂 SSH 隧道的安全隐患。
  • Vibe Coding:Mac、iPad、甚至一部旧安卓机都能即时「接管」本地 shell,真正随走随编。
功能说明
🖥 浏览器即终端基于 xterm.js + Node 后端,实时渲染输出、支持 ANSI 颜色与滚动缓冲区,无需 SSH
零配置安装后点击菜单栏图标即启动,本地默认 localhost 只允许自己访问,安全又省事
🤖 AI‑Agent 友好动态标题会显示 Claude/Gemini 等命令的「Thinking / Crafting」状态,方便远程观察长任务
🔒 多重认证本地帐号、SSH Key、环境变量密码或 Token 等五种认证模式,亦可配合 Tailscale/ngrok 暴露到公网
📱 跨端访问Web 界面自适应移动端;官方 iOS 客户端与 Tauri 桌面端也在路上
🎥 会话录制自动以 asciinema 格式保存,方便回放或生成 DemoGIF
  • macOS 原生 App(推荐)

    Terminal window
    brew install --cask vibetunnel

    仅支持 Apple Silicon,安装时会把 vt 命令软链到 /usr/local/bin

  • npm 全平台包 服务器、Docker 或 Intel Mac 可用:npm i -g vibetunnel,需 Node 20+。

Terminal window
vt --shell # 在浏览器里打开交互式 shell
vt npm test # 把任何命令实时转发

vt 实际调用 vibetunnel fwd,还能解析你 .zshrc / .bashrc 中的 alias,让 gs=git status 等别名直接可用。

  1. Tailscale:最推荐,创建端到端加密的私有 VPN,只要记住 my-mac.tailnet.ts.net:4020 即可随时连入。
  2. ngrok:一键获得 HTTPS 公网地址,适合临时分享给外部伙伴。
  3. 局域网 / Cloudflare Tunnel:在可信网络内直接开放 0.0.0.0:4020,或用 cloudflared 生成临时域名。
  • 🚄 高铁上用 iPad 查看 CI 日志,任务完成即远程触发下一步构建。
  • 🧑‍💻 远程 Pair Coding,让同事直接在浏览器里帮你定位线上 Bug。
  • 📟 旧手机秒变「仪表盘」,实时盯着 Claude 或 Gemini 的输出流。
  • UI 大修:Beta 11 起引入更现代的配色与可折叠侧边栏,手机上也能全屏敲命令。
  • 性能与稳定性:Beta 12 解决了 SSH Agent、Linux 安装及欢迎页卡顿等问题,体验更丝滑。
  • 项目活跃度:短短一个月已破 2.8 k commits、14 万行代码,迭代速度令人咋舌。
  • 幕后花絮:它竟是在 24 小时黑客松里,用 Claude Code + 咖啡一把梭哈出来的!
特性VibeTunnelttyd / gotty
动态标题 / Agent 状态
原生 macOS 菜单栏
会话录制✅ asciinema
多重认证+Tailscale部分支持
iOS / Tauri 客户端进行中无官方方案
  1. 安全第一:在公网暴露时务必开启密码或 SSH Key,并限制只读 Session;Dev 环境可以 --no-auth 但切勿生产使用。
  2. Title Hack:在脚本里加 vt title "Deploy 🚀",浏览器标签栏一眼就能看出哪条流水线在跑。
  3. 配合 Tailscale Funnel:需要给客户临时演示?用 Funnel 把 localhost:4020 映射成一次性 HTTPS 链接,演示完即关。

如果你想要一个“随时随地,掏出手机就能操作 Mac 终端”的方案,VibeTunnel 基本覆盖了从快速安装、远程安全到 AI‑Agent 监控的全部需求。试着在周末装一把,然后拍张“我在海边也在 vim”的照片,朋友圈立刻多 10 个点赞😉。

用 tap4‑ai‑webui 搭建你的专属 AI 导航站

快速概览 tap4‑ai‑webui 是一套基于 Next.js 14 + Supabase 的开源模板,一键部署到 Vercel 即可拥有可分类、可搜索、支持 Markdown 详情页的 AI 工具导航站,且可配合 Tap4 AI Crawler 实现全自动收录更新。项目维护轻量、界面响应迅速,并内置 i18n 与 SEO 友好配置,非常适合个人或小团队搭建“导航 + 内容”一站式入口。

  • 一键 Fork & Deploy:仓库自带 Vercel 按钮,点击即可在云端构建并绑定自有域名,无需本地打包流程。
  • 全栈同构:基于 Next.js 14 App Router,搭配 React Server Component,首屏直出 + 按需流式加载,性能更佳。
  • 云原生数据库:站点数据存于 Supabase Postgres,支持可视化表格、SQL 编辑与实时订阅。
  • 自动化收录:结合 Tap4 AI Crawler 抓取网页摘要并写入数据库,实现“提交‑审核‑发布”全链路自动化。
  • SEO & 多语言:内置 i18n、动态 sitemap 及 meta schema,帮助搜索引擎快速收录,同时支持中/英文切换。

最少只需三件套:GitHub 账号、Vercel 账号、Supabase 项目。

步骤关键操作产出
① Fork 仓库github.com/6677-ai/tap4-ai-webui个人副本
② 创建 Supabase 项目新建数据库 → 运行 db/*.sql三张核心表:web_navigation 等
③ 配置环境变量在 Vercel 或 .env.local 填写 10+ 变量保证 API / 数据库可连通

核心变量示例(节选):

Terminal window
NEXT_PUBLIC_SITE_URL=https://yourdomain.com
NEXT_PUBLIC_SUPABASE_URL=https://xxxx.supabase.co
NEXT_PUBLIC_SUPABASE_ANON_KEY=xxx.yyy.zzz
CRAWLER_API=https://crawler-domain/site/crawl_async
  1. 点击 README 中的 “Deploy with Vercel” 按钮 → 关联 GitHub 仓库。
  2. 在弹出的 env 表单内粘贴前述变量,最关键的是 SITE_URLSUPABASE_URLSUPABASE_ANON_KEY
  3. Hobby 版 Vercel 每天只能自动触发一次 Cron,如果想更高频,请升级到 Pro 并在 vercel.json 声明 Cron 表达式。

手动触发:Hobby 计划可向 POST /api/cron 发送 Authorization: Bearer <CRON_AUTH_KEY> 来立即刷新数据。

Terminal window
git clone https://github.com/6677-ai/tap4-ai-webui.git
cd tap4-ai-webui
nvm use # 切 Node 版本
pnpm i # 装依赖
pnpm dev # 本地预览 http://localhost:3000

Server Component + Tailwind CSS 的组合让页面在开发模式下也能保持接近生产的体感。

  • 提交入口:访问 /submit,填写工具地址即可进入待抓取队列。
  • Tap4 AI Crawler:定时任务调用 CRAWLER_API 抓取页面 → 生成 Markdown 摘要 → 写入 web_navigation 表。
  • 失败回退:若反爬导致抓取失败,可进入 Supabase 后台手动编辑记录,或直接导入官方提供的 13K+ 工具数据源。
  • 在 Supabase 修改 category 表或 tailwind.config.ts 自定义配色。
  • 组件位于 /components,支持按需替换图标或布局。
  • 配置 GOOGLE_TRACKING_IDGOOGLE_ADSENSE_URL 环境变量即可;Next.js 将自动注入 <Script> 标签。
  • 新建 pages/api/*.tsapp/api/* Server Action,配合 Supabase SDK 读写数据。
  • 使用 Vercel Cron 定时调用,如 0 3 * * * 每天 11 AM Beijing 更新。
问题处理方案
Cron 不执行确认已在 Production 环境,并检查项目 Cron 配额(Hobby 限 2 个)。
抓取超时手动插入数据或降低并发;亦可在 Crawler 侧增加代理池。
数据库结构要变更在 Supabase SQL 编辑器写迁移脚本,或使用 GUI 表格增删列。

不到半小时,你就能把一套 功能完备、可持续更新、支持多语言 SEO 的 AI 工具导航站上线,并随时用 Supabase 或 Crawler 迭代内容。Fork 一下,给自己的产品或社区再多一个流量入口吧!🎉


Sniffly:用仪表盘洞察你的 Claude Code 使用模式

一行命令,即刻把枯燥 Claude Code 的 jsonl 日志变成可视化洞察。


Sniffly 是由 Chip Huyen 开源的本地工具,专门解析 Claude Code 产生的 .jsonl 日志,并生成可交互的 Web 仪表盘,帮你快速回答三个问题:

你想知道…Sniffly 给到…
我到底用了 Claude Code 做了什么?Usage Stats:指令次数、文件操作、平均步数等
Claude Code 最常犯什么错?Error Breakdown:将错误按类型、占比可视化
某段对话为什么翻车?Message History:逐条重放完整上下文

全部计算都在本地完成,无需上传任何对话或代码,隐私友好。


环境要求:Python 3.10+

Terminal window
# ✅ 临时试用(无需安装)
uvx sniffly@latest init
# ✅ 全局安装
uv tool install sniffly@latest # 或 pip install sniffly
sniffly init # 首次扫描并启动服务

默认会在浏览器打开 http://localhost:8081 仪表盘,你也可以通过命令行改端口或关闭自动打开:

Terminal window
sniffly config set port 8090
sniffly config set auto_browser false

功能亮点
Usage Stats对指令数量、对话长度、平均步骤、最耗时指令等做柱状/折线图
Error Breakdown统计 FileNotFound, FuncNotFound, Timeout 等错误占比
Message History类似“录像带”回放,同步展示你的代码 diff
Sharable Dashboard一键生成私密 / 公开链接,把洞察分享给队友

Chip Huyen 在首发贴里给出自己的 两个惊喜发现

  1. “Content Not Found” 是最常见错误,占 20‑30% —— Claude Code 经常寻找不存在的文件/函数。
  2. 优化项目结构后,平均指令步骤从 8 步降到 7 步 —— 只改了可发现性,效率立竿见影。

同样,你也可以用 Sniffly 找到自己的“隐形效率黑洞”,然后做针对性改进。


目标命令 / 操作
切换要分析的项目目录sniffly init --project /path/to/project
限制内存占用sniffly config set cache_max_mb_per_project 200
分享只包含统计、不含指令文本Dashboard ▶︎ Share ▶︎ 勾选 Hide Commands
将日志 & Git 提交时间线对齐把 git repo 路径传给 sniffly init,时间线自动融合

如果你也在用 Claude Code 进行 Vibe Coding,却苦于:

  • 日志太散,难以聚焦问题
  • 错误类型众多,不知该先优化哪里
  • 想向团队展示 AI 编程 ROI,却缺少可视化证据

那就试试 Sniffly —— 一行命令,帮你把隐藏在日志里的价值“嗅”出来

开源地址、文档与 Demo:


动手吧! 让 Sniffly 成为你的 Claude Code“黑匣子”,从今天开始量化每一次 AI 编程的得与失。

日报 - 2025-07-17

Turn any browser into your Mac terminal. VibeTunnel proxies your terminals right into the browser, so you can vibe-code anywhere.
将PC、手机和Pad上的任何浏览器变成您的 Mac 终端。VibeTunnel 将您的终端直接代理到浏览器中,因此您可以在任何地方进行 Vibe Coding。

https://vt.sh/

https://github.com/amantus-ai/vibetunnel

「Context Engineering」:通过设计上下文,把大语言模型变成某个角色的专家助手。比如你可以让它只回答医生、工程师或会计的视角,还能设置语气和信息边界。感觉比提示词更稳定、更可控,值得一试~

https://github.com/davidkimai/Context-Engineering

Context-Engineering/
├── LICENSE # MIT license
├── README.md # Quick-start overview
├── structure.md # Original structural map
├── STRUCTURE_v2.md # Enhanced structural map with field theory
├── context.json # Original schema configuration
├── context_v2.json # Extended schema with field protocols
├── context_v3.json # Neural field extensions
├── context_v3.5.json # Symbolic mechanism integration
├── CITATIONS.md # Research references and bridges
├── 00_foundations/ # First-principles theory
│ ├── 01_atoms_prompting.md # Atomic instruction units
│ ├── 02_molecules_context.md # Few-shot examples/context
│ ├── 03_cells_memory.md # Stateful conversation layers
│ ├── 04_organs_applications.md # Multi-step control flows
│ ├── 05_cognitive_tools.md # Mental model extensions
│ ├── 06_advanced_applications.md # Real-world implementations
│ ├── 07_prompt_programming.md # Code-like reasoning patterns
│ ├── 08_neural_fields_foundations.md # Context as continuous fields
│ ├── 09_persistence_and_resonance.md # Field dynamics and attractors
│ ├── 10_field_orchestration.md # Coordinating multiple fields
│ ├── 11_emergence_and_attractor_dynamics.md # Emergent properties
│ │── 12_symbolic_mechanisms.md # Symbolic reasoning in LLMs
│ ├── 13_quantum_semantics.md # Multiple meanings (Superposition)
│ └── 14_unified_field_theory.md # Integrating theory models
├── 10_guides_zero_to_hero/ # Hands-on tutorials
│ ├── 01_min_prompt.ipynb # Minimal prompt experiments
│ ├── 02_expand_context.ipynb # Context expansion techniques
│ ├── 03_control_loops.ipynb # Flow control mechanisms
│ ├── 04_rag_recipes.ipynb # Retrieval-augmented patterns
│ ├── 05_protocol_bootstrap.ipynb # Field protocol bootstrap
│ ├── 06_protocol_token_budget.ipynb # Protocol efficiency
│ ├── 07_streaming_context.ipynb # Real-time context
│ ├── 08_emergence_detection.ipynb # Detecting emergence
│ ├── 09_residue_tracking.ipynb # Tracking symbolic residue
│ └── 10_attractor_formation.ipynb # Creating field attractors
├── 20_templates/ # Reusable components
│ ├── minimal_context.yaml # Base context structure
│ ├── control_loop.py # Orchestration template
│ ├── scoring_functions.py # Evaluation metrics
│ ├── prompt_program_template.py # Program structure template
│ ├── schema_template.yaml # Schema definition template
│ ├── recursive_framework.py # Recursive context template
│ ├── field_protocol_shells.py # Field protocol templates
│ ├── symbolic_residue_tracker.py # Residue tracking tools
│ ├── context_audit.py # Context analysis tool
│ ├── shell_runner.py # Protocol shell runner
│ ├── resonance_measurement.py # Field resonance metrics
│ ├── attractor_detection.py # Attractor analysis tools
│ ├── boundary_dynamics.py # Boundary operation tools
│ └── emergence_metrics.py # Emergence measurement
├── 30_examples/ # Practical implementations
│ ├── 00_toy_chatbot/ # Simple conversation agent
│ ├── 01_data_annotator/ # Data labeling system
│ ├── 02_multi_agent_orchestrator/ # Agent collaboration system
│ ├── 03_vscode_helper/ # IDE integration
│ ├── 04_rag_minimal/ # Minimal RAG implementation
│ ├── 05_streaming_window/ # Real-time context demo
│ ├── 06_residue_scanner/ # Symbolic residue demo
│ ├── 07_attractor_visualizer/ # Field visualization
│ ├── 08_field_protocol_demo/ # Protocol demonstration
│ └── 09_emergence_lab/ # Emergence experimentation
├── 40_reference/ # Deep-dive documentation
│ ├── token_budgeting.md # Token optimization strategies
│ ├── retrieval_indexing.md # Retrieval system design
│ ├── eval_checklist.md # PR evaluation criteria
│ ├── cognitive_patterns.md # Reasoning pattern catalog
│ ├── schema_cookbook.md # Schema pattern collection
│ ├── patterns.md # Context pattern library
│ ├── field_mapping.md # Field theory fundamentals
│ ├── symbolic_residue_types.md # Residue classification
│ ├── attractor_dynamics.md # Attractor theory and practice
│ ├── emergence_signatures.md # Detecting emergence
│ └── boundary_operations.md # Boundary management guide
├── 50_contrib/ # Community contributions
│ └── README.md # Contribution guidelines
├── 60_protocols/ # Protocol shells and frameworks
│ ├── README.md # Protocol overview
│ ├── shells/ # Protocol shell definitions
│ │ ├── attractor.co.emerge.shell # Attractor co-emergence
│ │ ├── recursive.emergence.shell # Recursive field emergence
│ │ ├── recursive.memory.attractor.shell # Memory persistence
│ │ ├── field.resonance.scaffold.shell # Field resonance
│ │ ├── field.self_repair.shell # Self-repair mechanisms
│ │ └── context.memory.persistence.attractor.shell # Context persistence
│ ├── digests/ # Simplified protocol documentation
│ └── schemas/ # Protocol schemas
│ ├── fractalRepoContext.v3.5.json # Repository context
│ ├── fractalConsciousnessField.v1.json # Field schema
│ ├── protocolShell.v1.json # Shell schema
│ ├── symbolicResidue.v1.json # Residue schema
│ └── attractorDynamics.v1.json # Attractor schema
├── 70_agents/ # Agent demonstrations
│ ├── README.md # Agent overview
│ ├── 01_residue_scanner/ # Symbolic residue detection
│ ├── 02_self_repair_loop/ # Self-repair protocol
│ ├── 03_attractor_modulator/ # Attractor dynamics
│ ├── 04_boundary_adapter/ # Dynamic boundary tuning
│ └── 05_field_resonance_tuner/ # Field resonance optimization
├── 80_field_integration/ # Complete field projects
│ ├── README.md # Integration overview
│ ├── 00_protocol_ide_helper/ # Protocol development tools
│ ├── 01_context_engineering_assistant/ # Field-based assistant
│ ├── 02_recursive_reasoning_system/ # Recursive reasoning
│ ├── 03_emergent_field_laboratory/ # Field experimentation
│ └── 04_symbolic_reasoning_engine/ # Symbolic mechanisms
├── cognitive-tools/ # Advanced cognitive framework
│ ├── README.md # Overview and quick-start guide
│ ├── cognitive-templates/ # Templates for reasoning
│ │ ├── understanding.md # Comprehension operations
│ │ ├── reasoning.md # Analytical operations
│ │ ├── verification.md # Checking and validation
│ │ ├── composition.md # Combining multiple tools
│ │ └── emergence.md # Emergent reasoning patterns
│ │
│ ├── cognitive-programs/ # Structured prompt programs
│ │ ├── basic-programs.md # Fundamental program structures
│ │ ├── advanced-programs.md # Complex program architectures
│ │ ├── program-library.py # Python implementations
│ │ ├── program-examples.ipynb # Interactive examples
│ │ └── emergence-programs.md # Emergent program patterns
│ │
│ ├── cognitive-schemas/ # Knowledge representations
│ │ ├── user-schemas.md # User information schemas
│ │ ├── domain-schemas.md # Domain knowledge schemas
│ │ ├── task-schemas.md # Reasoning task schemas
│ │ ├── schema-library.yaml # Reusable schema library
│ │ └── field-schemas.md # Field representation schemas
│ │
│ ├── cognitive-architectures/ # Complete reasoning systems
│ │ ├── solver-architecture.md # Problem-solving systems
│ │ ├── tutor-architecture.md # Educational systems
│ │ ├── research-architecture.md # Information synthesis
│ │ ├── architecture-examples.py # Implementation examples
│ │ └── field-architecture.md # Field-based architectures
│ │
│ └── integration/ # Integration patterns
│ ├── with-rag.md # Integration with retrieval
│ ├── with-memory.md # Integration with memory
│ ├── with-agents.md # Integration with agents
│ ├── evaluation-metrics.md # Effectiveness measurement
│ └── with-fields.md # Integration with field protocols
└── .github/ # GitHub configuration
├── CONTRIBUTING.md # Contribution guidelines
├── workflows/ci.yml # CI pipeline configuration
├── workflows/eval.yml # Evaluation automation
└── workflows/protocol_tests.yml # Protocol testing

ChatGPT, Claude 和 Gemini 的 Apple 会员订阅省钱攻略

Section titled “ChatGPT, Claude 和 Gemini 的 Apple 会员订阅省钱攻略”

把 iCloud 账号修改地区到尼日利亚,然后咸鱼买礼品卡兑换,ChatGPT 一个月才 55 块钱人民币。具体分析如下:

ChatGPT Plus 月度会员尼日利亚区价格:9,900 NGN

闲鱼等平台尼日利亚区 9,900 NGN 礼品卡价格:约 55 元人民币

原价:20.00 美元 ≈ 144 元 人民币实际支付:55 元人民币

折扣:约 38 折

节省金额:约 89 元人民币 / 月

Conductor.build 💡不用写代码就能把 Claude Code, Gemini CLI, CodeX 等多个 AI 工具串成自动化流程,支持搜索、插件,还能调试、版本管理、团队协作。

https://conductor.build/

Claude Code 国内平替:DeepSeek R1 + Kimi K2 一键上手指南

Claude Code Router(CCR)https://github.com/musistudio/claude-code-router 是一款为 Claude Code 用户量身打造的 “多模型分流器”:它在本地监听 Claude Code 的标准请求,然后按你的路由策略转发至 DeepSeek‑R1、Kimi K2 等任意 LLM,兼容 OpenAI‑style API,并可给不同模型加“变压器”做参数与响应的适配。本文先概览 CCR 的核心机制,再逐步演示如何把 DeepSeek R1Kimi K2 接入,一文在手即可上手“多模协同写码”。


  • CCR 通过 ~/.claude-code-router/config.json 描述 Provider → Model → Transformer → 路由规则,让 Claude Code 在 VS Code / 终端里像往常一样使用 /model 即可热切换后端模型。
  • 自带 DeepSeek、OpenRouter、Gemini、MaxToken 等可插拔 Transformer,可给单一模型再叠加多级转换。
  • 支持 CLI / GitHub Actions 双模式运行;结合 Action 可利用 DeepSeek 夜间 25 % 费率做“凌晨批处理”。
Terminal window
npm i -g @anthropic-ai/claude-code # 安装 Claude Code
npm i -g @musistudio/claude-code-router
ccr code # 用 CCR 启动 Claude Code

  1. 在 DeepSeek 平台 控制台申请 key,并记录 sk‑xxx
  2. 官方 API 为 https://api.deepseek.com/chat/completions,完全兼容 OpenAI SDK。
  3. R1 最新版本号 deepseek‑r1‑250528(VolcEngine 镜像提供 128 K 上下文)。
{
"Providers": [
{
"name": "volcengine",
"api_base_url": "https://ark.cn-beijing.volces.com/api/v3/chat/completions",
"api_key": "sk-你的key",
"models": ["deepseek-r1-250528"],
"transformer": { "use": ["deepseek"] }
}
],
"Router": {
"think": "volcengine,deepseek-r1-250528"
}
}
  • deepseek transformer 会自动把 max_tokens 上限限制为 8192 并兼容 R1 不支持 tool_choice 的特性。
  • 夜间(00 :30 – 08 :30 UTC+8)调用 R1 费用仅白天 25 % → 适合大批量测试/重构脚本。

在 Claude Code 中键入:

/model volcengine,deepseek-r1-250528

即可让下一次对话立即改用 DeepSeek R1,并继承 128 K 上下文窗口。


  • Moonshot AI 最新开源 MoE 模型,1 T 总参数 / 32 B 激活专家,擅长代码生成与 Agent 调用。
  • SiliconFlow 提供 16384 max_tokens 额度与高并发低延迟推理服务,适合长链路代码分析。
  • 进入 siliconflow.cn 控制台,开通 moonshotai/Kimi-K2-Instruct 并拿到 token。
  • 也可通过 OpenRouter 走统一兼容端点 https://openrouter.ai/api/v1/chat/completions
{
"Providers": [
{
"name": "siliconflow",
"api_base_url": "https://api.siliconflow.cn/v1/chat/completions",
"api_key": "sk-你的token",
"models": ["moonshotai/Kimi-K2-Instruct"],
"transformer": {
"use": [
["maxtoken", { "max_tokens": 16384 }]
]
}
}
],
"Router": {
"longContext": "siliconflow,moonshotai/Kimi-K2-Instruct"
}
}
  • maxtoken transformer 防止 CCR 误把 max_tokens 撑破 SiliconFlow 的 16 K 限制。
  • 如果你希望在同一次会话里把 32 K + 的项目文档全部喂给 K2,可先 /model siliconflow,moonshotai/Kimi-K2-Instruct,再贴全文。

SiliconFlow 官方 cURL 样例仅需替换为 CCR 的本地端口即可;CCR 会负责转发与字段兼容。


场景路由键建议模型
文件批量重构thinkDeepSeek‑R1(低价+推理链输出)
超长项目 ReadMe 总结longContextKimi‑K2(16 K 上下文)
夜间离线 CIGitHub Actions + CCRDeepSeek‑R1(夜间 25 % 费率)
本地推理/离线背景任务backgroundqwen‑coder‑2.5@Ollama(0 成本)

CCR 的 /model provider,model 命令支持随时热切换;也可以在 Router 里给不同任务通道预设默认模型,实现“写代码用 R1,读长文用 K2”的流水线。


  1. 响应慢? DeepSeek 官方端点推理阶段较慢,若在 VS Code 中等待超时可开 UltraThink 预算或换 VolcEngine 镜像。
  2. Context 溢出? DeepSeek API 默认 64 K,上面示例用 VolcEngine 扩充到 128 K;Kimi K2 为 16 K,需要 maxtoken 保护。
  3. 模型名打错? CCR 的 /model 格式一定是 provider,model,不要遗漏逗号。
  4. 工具调用失效? R1 目前不支持 tool_choice,若要函数调用可退回 DeepSeek V3,或在 CCR 给 V3 加 tooluse transformer。

凭借 Claude Code Router + DeepSeek R1 + Kimi K2,你可以在同一 IDE 内一键切换「推理力」与「长文上下文」两大特长:白天用 K2 写长文报告,夜里切 R1 做批量代码迁移,成本不到官方 Claude Max 的十分之一。立刻安装 CCR,解锁你的多模写码新姿势吧!

Kiro:从一句 Prompt 到上线代码——Spec‑驱动 Agentic IDE 实战指南

在 AI 编码工具一片“卷到天际”的时代,AWS 推出的 Kiro 给人一种耳目一新的感觉:它不只是“帮你写代码”,而是把 需求→设计→实现→自动化 的完整软件工程流程塞进一款 IDE 里,让“Vibe Coding(凭感觉写 demo)”真正迈向 “Viable Code(能上线的产品)”。下面这篇文章将带你快速了解 Kiro 的核心特色、实际使用方法,以及它与其他 Agentic IDE 的差异。

  • 定位:一款基于 VS Code 内核的 Agentic IDE,从“单句 Prompt”自动拆分出需求规范、系统设计与任务清单,并驱动 LLM 完成实现。
  • 背景:由 AWS 内部一个“意见很大的小团队”开发,但故意与 AWS 云服务弱耦合,GitHub / Google 账号即可登录。也支持 AWS Builder ID 登陆。
  • 使用的模型:预览版内置 Claude Sonnet 3.7 和 4.0,可在设置中切换。

笔者在日常工作实际项目使用实践下来,对 Kiro 核心功能进行分析和总结:

  1. 三份 Spec 自动生成

    • requirements.md —— 用 EARS 语法写用户故事与验收标准
    • design.md —— 架构、流程图、数据库设计
    • tasks.md —— 可执行的实现计划(含测试、可访问性等)
  2. EARS 简介:EARS(Easy Approach to Requirements Syntax)由 Rolls‑Royce 工程团队在 2009 年提出,结构为 “While … when … the  shall …”,可减少需求歧义。

  3. 意义:相比单纯 Chat‑pair 编码,Spec‑驱动让“AI 写的每一行代码”都有出处可循,便于团队协作和后期维护。

2.2 Agent Hooks(事件触发自动化)

Section titled “2.2 Agent Hooks(事件触发自动化)”
  • 工作方式:监听“文件保存 / 创建 / 删除 / 手动触发”等事件,调用后端 LLM 执行预设任务。

  • 常见场景

    • 保存 React 组件 → 自动更新测试文件
    • 修改 API Endpoint → 同步 README.md 文档
    • Git 提交前 → 扫描敏感信息泄漏
  • 收益:把“我应该养成的好习惯”固化为 Hook 自动执行,团队共享,避免遗漏。

  • 双模式:启动项目时可选“Prompt 模式”快速试验,或“Spec 模式”一步到位严谨实施。
  • IDE 内审阅:所有 AI 改动以 diff 形式呈现,支持逐行批准或批量接受。
  • VS Code 生态兼容:Open VSX 插件、主题、快捷键几乎原封不动迁移。
  1. 访问 kiro.dev 下载对应平台客户端,登录 GitHub / Google / AWS Builder ID。
Add a comment system for my blog

几分钟后即可在 .kiro/ 目录看到三份 Spec;先审阅、微调后点击 “Approve”。

  • 任务面板展示依赖关系、进度条,可选择 Autopilot Mode(全自动)或 Supervised Mode(人工批准)。
on: save
when: files.match("src/**/*.tsx")
do: >
Ensure the component follows Single Responsibility Principle

保存即生效,Kiro 会在后台补充测试或抛出警告。

  • 使用 Diff 视图检查生成代码;通过后即可一键合并至本地仓库,再推送至远端。
版本交互次数/月价格上线时间
Free50$0Preview 结束后开放
Pro1 000$19Coming Soon
Pro+3 000$39Coming Soon

注:预览期内不限量免费试用,但官方提示“合理限额”。

功能KiroCursorCopilotClaude Code
Spec‑自动生成部分支持
EARS 需求格式
Agent Hooks🚧🚧
多模态 Prompt
VS Code 插件兼容✅ (Open VSX)原生VS Code无 IDE
  • Strengths:需求‑设计一体化、事件自动化

  • Weaknesses

    • 代码补全尚不如 Copilot / Cursor 顺滑;
    • 中文提问尚未深度优化,除英语外国际化已经在路上;
  • Code with Kiro Hackathon:线上举办,奖金 $100 000,截至 2025‑08‑25。欢迎用 Kiro 做项目、写评论系统、玩 Agent Hooks!

如果你已经体会过“让 LLM 帮我写 CRUD”的爽感,但又苦于“产物无法落地”,Kiro 可能正是你想要的那剂“工程化补丁”。先从一个小需求试水,体验 Spec‑driven Development 的流畅闭环,也许你会发现:

“写代码的快乐,不该以上线的痛苦为代价。”

快去下载 Kiro,一起把“灵感”变成“可交付”吧!

Claude Code 开发神器:`claude-trace` 全记录工具,让你的调试透明可见

在使用 Claude Code 写代码时,你是否也好奇:

  • Claude 是怎么理解你的指令的?
  • 系统提示(system prompt)到底写了啥?
  • Claude 用了什么工具?返回了哪些原始数据?
  • API 背后发生了什么?模型用了多少 token?

现在,有了开源工具 claude-trace,这些“幕后”细节你都能一览无遗!


只需一条命令即可安装:

Terminal window
npm install -g @mariozechner/claude-trace

启动 Claude Code 并记录全过程:

Terminal window
claude-trace

支持更多选项:

功能命令
启动 Claude + 日志记录claude-trace
包含所有请求(默认仅记录有效对话)claude-trace --include-all-requests
使用特定参数运行 Claudeclaude-trace --run-with chat --model sonnet-3.5
提取 OAuth tokenclaude-trace --extract-token
生成 HTML 会话报告claude-trace --generate-html logs.jsonl report.html
自动生成索引 + 总结claude-trace --index

使用 claude-trace,你可以在生成的 HTML 页面中看到:

  • ✅ Claude 的 system prompt(隐藏指令)
  • ✅ 所有 API 请求与响应原始数据
  • 工具定义与输出(如搜索/文件读取)
  • ✅ Claude 的“思考过程”块
  • ✅ Token 使用统计(含缓存命中情况)
  • ✅ 可交互 HTML 视图 + 搜索索引
  • ✅ JSONL 原始日志(保存在 .claude-trace/ 文件夹)

每次运行将生成自包含的 HTML 文件,无需服务器即可本地浏览,非常适合团队回顾、调试与归档。


📊 会话总结与索引功能(AI 加持)

Section titled “📊 会话总结与索引功能(AI 加持)”

通过 claude-trace --index 命令,你还能自动生成:

  • 所有日志的 AI 总结标题和概要
  • 带索引的 index.html 文件
  • 可点击跳转的历史会话列表

让你像管理 Notion 一样管理 Claude 的所有对话记录!


如果你符合以下标签,那么你会爱上它:

  • 💡 Claude Code 的深度用户或插件开发者
  • 🧪 需要调试 Claude 工具链、系统指令或日志结构
  • 📁 希望归档所有 Claude 编程会话
  • 🧠 想了解 Claude 背后真实的“思考”过程
  • ⚙️ 需要构建自动化测试或生成会话回顾报告

项目地址:https://github.com/mariozechner/claude-trace


总结一下:

claude-trace 是 Claude Code 用户不可错过的一款调试神器,它让你看清 AI 背后的“黑盒”,无论是开发插件、分析模型响应,还是构建 Claude 工程日志系统,都能带来极大便利。

如果你正在用 Claude 开发项目,不妨试试看,一键开启你的「Claude 可视化开发之旅」!

Vibe Kanban 工具实战:一键管理 Claude、Gemini、Amp 任务

Coding Agent(如 Claude Code、Gemini CLI、Amp 等)在工程开发中的作用愈发重要。团队发现现在花在规划、审查、协调这些人类工作上的时间,已经超过了写代码本身

Vibe Kanban https://github.com/BloopAI/vibe-kanban,正是一款专注解决这类协作流程问题的新工具。它通过 Kanban 板界面,让你可以:

  • 快速切换编码 Agent(Claude、Gemini、Amp 等);
  • 并行或串行调用多个 Agent,自动执行任务;
  • 以可视化方式查看 task 状态、代码审查、Dev Server 快速启动;
  • 集中管理 Agent 的 MPC 配置,提升整体协作效率;
  • 未来还能通过 MCP 服务器让 coding agent 自动创建 task ticket。

Vibe Kanban 的设计理念是:当大部分代码由 AI 写,我们人类的角色就是规划、审查、协调。这不仅是趋势,也是一种全新的开发工作方式。


  1. 提前配置好 Agent 比如安装并登录 Claude Code、Gemini CLI、Amp 等。

  2. 运行命令启动 Vibe Kanban

    Terminal window
    npx vibe-kanban

    自动寻找本地端口并打开浏览器(如http://127.0.0.1:53046),进入 Kanban 工作区。

  3. 配置 Agent 首次需在 Settings 中添加 Agent MCP(例如 Claude、Gemini、Amp 的 token/path),后续可在 UI 中自由切换 Agent 执行任务。

  4. 创建项目 在 Kanban 界面创建新项目,添加 Task(任务),即可开始使用。


切换到相应 Agent 后,可为同一 Task 发起多个“Attempts”。 支持并行运行(不同分支/工作区),也支持串行执行(等待上一步完成再进行)。执行状态、日志一目了然。

每次 Agent 生成代码后,Vibe Kanban 会自动显示 diff 与执行输出,并提供一键启动 Dev Server 的按钮,方便实时预览。

采用常见的 Kanban 三列(To Do,In Progress,Done),直观睡一眼看到 Task 状态与 Agent 执行进度。 你可以为某 Task 创建多个 Attempt(尝试),并标记为成功/失败。

所有 Agent 的配置(例如 Claude、Gemini 的 token、运行命令等)都在 Settings 界面集中管理,切换使用流畅无缝。

Vibe Kanban 内建 “Vibe Kanban MCP” 服务器插件,可通过 Agent 自动生成 planner ticket。例如:

“Plan a migration from AWS to Azure and create detailed tickets…” Agent 会自动拆解任务、创建多个 Kanban 卡片,这一切都在 UI 中完成,无需人工介入。

  1. 在 Kanban 中创建一个 Task:例如 “实现用户登录页面”;
  2. 选择 Agent(如 Claude Code),点击 “New Attempt”;
  3. Agent 自动生成登录页面组件与后端接口;
  4. 你审查差异,运行 Dev Server,验证 UI;
  5. 发现问题,修改指示让 Agent 重试,或重新选 Agent(如 Gemini);
  6. 标记 Attempt 成功,将 Task 移至 Done。

整个过程无需切换命令行窗口,一切在 UI 内操作,高效直观。


  • 对个人开发者: 极大提升启动任务、审查、调试效率,让开发更流畅、更有结构感。

  • 对小团队协作: Agent 自动拆任务、多个 Attempt 协同完成、有独立 Git worktree、可接入外部 MCP,适合团队流水线协作。

  • 投资未来能力: 随着 Agent 能力的持续提升,Vibe Kanban 能无缝适配不同 Agent,让你随时体验最新模型能力。


⏳ 尾声:AI 在编码,我们在协作

Section titled “⏳ 尾声:AI 在编码,我们在协作”

Vibe Kanban 正在开创「Agent 驱动、人人驾驭」的新范式。从写代码到 orchestrate 和 review 代码时代,我们将释放人的创造力,让 Agent Handoff 更高效、流程更清晰。推荐所有正在试用或在生产中使用 coding agents 的开发者一试。

🎯 ccusage 分析 Claude Code 使用情况

ccusage 是由开源开发者 ryoppippi 创建的一款命令行工具,用于分析 Claude Code 本地生成的 JSONL 文件,通过可视化表格方式展示你的 token 使用情况及对应成本,帮助你更好地管理使用习惯和成本结构。

  • 功能简洁:只需一行命令即可获得每日、每月、会话和账单区块(5 小时)级别的 token 使用及成本分布。
  • 实时监控:支持 blocks --live 实时监控当前账单区块内的消耗速率和项目进度。
  • 轻量高效:体积极小(npm 包 ~1 MB),无需依赖安装,适合快速分析。

  1. 成本意识 Claude Code 的 Max 版虽然可以无限使用,但当切换到按量付费计划时,ccusage 可以帮你预估每日和每月成本,思考“无痛阈值”。

  2. 日常数据追踪 通过每日或月度报告,及时掌握长周期的 token 使用趋势、是否存在突然暴增等异常。

  3. 会话/账单区块监控

    • 会话级别:对应项目、主题分析单次对话的 token 使用分布与成本。
    • 块级监控:跟踪五小时账单周期内的消耗趋势和速率(可添加 --live 实时观察)。
  4. 多终端同步分析 ccusage 默认读取 ~/.config/claude/projects/ 与旧路径 ~/.claude/projects/ 的 JSONL 文件,配合云盘可以实现多设备数据统一。

  5. 二次可视化和工具集成 提供 JSON 输出,可接入如 Raycast、Neovim 插件、Go 或 Rust 版本的实时可视化工具(如ccusage.nvim、ccusage-monitor等)。


无需安装,推荐直接用执行环境方式调用:

Terminal window
# 推荐 bunx(速度极快)
bunx ccusage
# 或 npx
npx ccusage@latest
# 或 Deno
deno run -E -R=$HOME/.claude/projects/ -S=homedir -N='raw.githubusercontent.com:443' npm:ccusage@latest

也可全局安装:

Terminal window
npm install -g ccusage
# 或
bun install -g ccusage

Terminal window
# 显示默认的”daily“每日使用报告:
ccusage
# 指定日报、月报、会话报告或账单区块报告:
ccusage daily
ccusage monthly
ccusage session
ccusage blocks
# 实时监控当前账单区块状态:
ccusage blocks --live

更多常用参数:

  • --since / --until: 仅分析指定日期范围
  • --breakdown: 展示各模型(如 Opus、Sonnet)消耗的明细
  • --json: 输出结构化 JSON,便于集成其他工具

执行 ccusage daily,输出类似:

可快速看到每日总 token、缓存命中次数及估算成本。

使用 ccusage blocks --live,控制台会实时刷新显示当前账单区块累计 token、烧速、剩余预算等,类似 CLI 版 “htop” 。

  1. 成本估算为模拟值:ccusage 显示的是基于 token 数量和模型定价的预估成本,可能与实际账单略有出入。

ccusage 是一款小巧但功能强大的 CLI 工具,适合开发者与 Heavy user:

  • 快速获得每天/每会话/每账单段落的 token 消耗和成本分析;
  • 实时监控当前账单区块进展;
  • 与 Raycast、Neovim、Go/Rust 工具无缝对接;
  • 跨设备分析只需同步 JSONL 文件。

试一试 npx ccusage daily,你将会惊讶于自己在 Claude Code 使用上的“花费轨迹”,并在预算管理上更加有意识。欢迎关注公众号带你一起探索 Claude 生态中的效率奥秘!


📌 最后,如果想了解更多 AI, Vibe Coding 和 Claude 使用技巧、整合插件推荐或进阶分析,欢迎在评论区留言交流,让我们一起打造更智慧的 AI 使用体验!